Nasional Mondial Ekonomi Megapolitan Olahraga Rona The Alun-Alun Kupas Splash Wisata Perspektif Wawancara Edisi Weekend Foto Video Infografis
Penguatan Riset

Para Ahli Berdebat soal Perkembangan AI yang Ancam Kepunahan Manusia

Foto : WANG ZHAO / AFP

Seorang anak mengunjungi Konferensi Kecerdasan Buatan Dunia, di Shanghai, beberapa waktu lalu. Elon Musk dan Sam Altman dari OpenAI memperingatkan AI dapat membuat umat manusia punah, meskipun mereka berpendapat hanya produk mereka yang dapat menyelamatkan manusia.

A   A   A   Pengaturan Font

PARIS - Filosofi populer dari pusat industri IT Amerika Serikat, Silicon Valley, "jangka panjang" (gagasan bahwa manusia dapat ditingkatkan dengan teknologi) telah mendorong perdebatan mengenai kecerdasan buatan atau artificial intelligence (AI) seputar gagasan kepunahan manusia.

Dikutip dari The Straits Times, para kritikus yang semakin vokal memperingatkan bahwa filosofi tersebut berbahaya, dan obsesi terhadap kepunahan mengalihkan perhatian dari masalah nyata yang terkait dengan AI seperti pencurian data dan algoritma yang bias.

Penulis Human Extinction: A History of the Science and Ethics of Annihilation, Emile Torres, yang juga mantan aktivis "jangka panjang" yang menjadi kritikus gerakan tersebut, kepada AFP mengatakan filosofi tersebut bertumpu pada prinsip-prinsip yang digunakan di masa lalu untuk membenarkan pembunuhan massal dan genosida.

Namun, gerakan dan ideologi terkait seperti transhumanisme dan altruisme efektif mempunyai pengaruh besar di universitas-universitas mulai dari Oxford hingga Stanford dan di seluruh sektor teknologi.

Pemodal ventura seperti Peter Thiel dan Marc Andreessen telah berinvestasi di perusahaan perpanjangan hidup dan proyek lain terkait dengan gerakan ini.

Elon Musk dan Sam Altman dari OpenAI telah menandatangani surat terbuka yang memperingatkan AI dapat membuat umat manusia punah, meskipun mereka mendapat manfaat dengan berargumentasi bahwa hanya produk mereka yang dapat menyelamatkan manusia.

Perdebatan Publik

Pada akhirnya, para kritikus mengatakan gerakan pinggiran ini memiliki pengaruh yang terlalu besar terhadap perdebatan publik mengenai masa depan umat manusia.

Para penganut paham jangka panjang percaya kita mempunyai kewajiban untuk mencoba memberikan hasil terbaik bagi sebanyak mungkin orang.

Hal ini tidak berbeda dengan kaum liberal abad ke-19, namun kelompok jangka panjang mempunyai jangka waktu yang lebih panjang.

Mereka melihat ke masa depan yang jauh dan melihat triliunan demi triliunan manusia melayang di angkasa, menjajah dunia-dunia baru.

Mereka berpendapat setiap orang mempunyai kewajiban yang sama terhadap manusia di masa depan seperti yang dilakukan terhadap siapa pun yang hidup saat ini. Dan karena jumlahnya sangat banyak, bobotnya jauh lebih besar daripada spesimen masa kini.

Menurut Torres, pemikiran seperti ini membuat ideologi tersebut "sangat berbahaya".

"Kapan pun Anda memiliki visi utopis tentang masa depan yang ditandai dengan jumlah nilai yang hampir tak terbatas, dan Anda menggabungkannya dengan cara berpikir moral utilitarian di mana tujuan dapat menghalalkan cara, hal itu akan berbahaya," kata Torres.

"Jika sebuah mesin super cerdas segera muncul dan berpotensi menghancurkan umat manusia, para penganut paham jangka panjang pasti akan menentangnya, apa pun konsekuensinya," ujar dia.

Ketika ditanya pada Maret oleh pengguna Twitter, platform yang sekarang dikenal sebagai X, berapa banyak orang yang bisa mati untuk menghentikan hal ini, ideolog "jangka panjang", Eliezer Yudkowsky menjawab hanya diperlukan jumlah orang yang cukup "untuk membentuk populasi reproduksi yang layak".

"Selama hal itu benar, masih ada peluang untuk mencapai bintang suatu hari nanti," tulisnya, meski kemudian dia menghapus pesan itu.

Filosofi jangka panjang tumbuh dari karya filsuf Swedia, Nick Bostrom pada 1990-an dan 2000-an seputar risiko eksistensial dan transhumanisme, gagasan bahwa manusia dapat ditingkatkan dengan teknologi.

Akademisi Timnit Gebru telah menunjukkan transhumanisme sejak awal dikaitkan dengan eugenika.

Senada, ahli biologi Inggris, Julian Huxley, yang menciptakan istilah transhumanisme, juga menjabat presiden British Eugenics Society pada tahun 1950-an dan 1960-an. "Jangka panjang adalah eugenika dengan nama yang berbeda," tulis Gebru di X pada 2022.

Bostrom telah lama menghadapi tuduhan mendukung eugenika setelah ia menyebut "tekanan disgenik" sebagai risiko eksistensial, yang pada dasarnya adalah orang-orang yang kurang cerdas bisa berkembang biak lebih cepat dibandingkan rekan-rekan mereka yang lebih pintar.

Filsuf, yang menjalankan Future of Life Institute di Universitas Oxford, meminta maaf pada Januari setelah mengakui dia telah menulis unggahan rasis di forum internet pada 1990-an.


Redaktur : Marcellus Widiarto
Penulis : Selocahyo Basoeki Utomo S

Komentar

Komentar
()

Top