Advertisement
Profesor Nello Cristianini, Profesor Kecerdasan Buatan (AI), University of Bath menyelidiki bagaimana sebenarnya kecerdasan buatan bisa membawa malapetaka bagi peradaban manusia.
Minggu ini sekelompok peneliti AI terkenal dan terkemuka menandatangani pernyataan yang terdiri dari 22 kata:
"Mengurangi risiko kepunahan AI harus menjadi prioritas global bersama dengan risiko skala sosial lainnya seperti pandemi dan perang nuklir."
“Sebagai seorang profesor AI, saya juga mendukung pengurangan risiko apa pun, dan siap untuk mengerjakannya secara pribadi,” kata Cristianini. “Tetapi pernyataan apa pun yang diucapkan sedemikian rupa pasti akan menimbulkan kekhawatiran, jadi penulisnya mungkin harus lebih spesifik dan mengklarifikasi keprihatinan mereka.”
Baca Juga:
- 'Malaikat Maut' Terlihat dalam Rekaman Penobatan Raja Charles?
- 'Tully Monster' Ternyata Lebih Misterius Dari Sebelumnya
Jika kecerdasan buatan akan menghancurkan kita, bagaimana caranya? (Kredit: Pixabay / KELLEPICS) |
Seperti yang didefinisikan oleh Encyclopedia Britannica, kepunahan adalah "kematian atau pemusnahan suatu spesies". Saya telah bertemu dengan banyak penandatangan pernyataan tersebut, yang merupakan ilmuwan paling terkemuka dan solid di bidangnya - dan tentu saja mereka bermaksud baik. Namun, mereka tidak memberi kita skenario nyata tentang bagaimana peristiwa ekstrem semacam itu bisa terjadi.
Ini bukan pertama kalinya kita berada di posisi ini. Pada 22 Maret tahun ini, sebuah petisi yang ditandatangani oleh sekelompok pengusaha dan peneliti yang berbeda meminta jeda dalam penerapan AI selama enam bulan.
Dalam petisi tersebut, di situs Future of Life Institute, mereka mengemukakan alasan mereka: "Risiko besar bagi masyarakat dan kemanusiaan, seperti yang ditunjukkan oleh penelitian ekstensif dan diakui oleh laboratorium AI terkemuka" - dan melengkapi permintaan mereka dengan daftar pertanyaan retoris:
"Haruskah kita membiarkan mesin membanjiri saluran informasi kita dengan propaganda dan kebohongan? Haruskah kita mengotomatiskan semua pekerjaan, termasuk pekerjaan yang memuaskan? Haruskah kita mengembangkan pikiran non-manusia yang pada akhirnya mungkin melebihi jumlah, mengakali, usang, dan menggantikan kita? Haruskah kita mengambil risiko kehilangan mengendalikan peradaban kita?"
Memang benar, selain banyak manfaat, teknologi ini juga memiliki risiko yang perlu kita tangani dengan serius. Tapi tidak satu pun dari skenario yang disebutkan di atas tampaknya menguraikan jalur spesifik menuju kepunahan. Ini berarti kita dibiarkan dengan rasa waspada yang umum, tanpa tindakan apa pun yang mungkin dapat kita ambil.
Situs web Center for AI Safety, tempat pernyataan terbaru muncul, menguraikan delapan kategori risiko luas di bagian terpisah. Ini termasuk "persenjataan" AI, penggunaannya untuk memanipulasi sistem berita, kemungkinan manusia pada akhirnya tidak dapat mengatur diri sendiri, memfasilitasi rezim yang menindas, dan seterusnya.
Kecuali untuk persenjataan, tidak jelas bagaimana risiko lain - yang masih mengerikan - dapat menyebabkan kepunahan spesies kita, dan beban untuk menjelaskannya ada pada mereka yang mengklaimnya.
Persenjataan tentu saja menjadi perhatian nyata, tetapi apa yang dimaksud dengan ini juga harus diklarifikasi. Di situs webnya, kekhawatiran utama Center for AI Safety tampaknya adalah penggunaan sistem AI untuk merancang senjata kimia. Ini harus dicegah dengan segala cara - tetapi senjata kimia sudah dilarang. Kepunahan adalah peristiwa yang sangat spesifik yang membutuhkan penjelasan yang sangat spesifik.
Pada 16 Mei, di sidang Senat AS, Sam Altman, CEO OpenAI - yang mengembangkan chatbot AI ChatGPT - dua kali diminta untuk menguraikan skenario terburuknya. Dia akhirnya menjawab:
"Ketakutan terburuk saya adalah bahwa kami - lapangan, teknologi, industri - menyebabkan kerugian yang signifikan bagi dunia ... Itu sebabnya kami memulai perusahaan [untuk menghindari masa depan itu] ... Saya pikir jika teknologi ini salah, itu bisa sangat salah."
Tapi sementara saya sangat mendukung untuk berhati-hati sebisa mungkin, dan telah mengatakannya secara terbuka selama sepuluh tahun terakhir, penting untuk menjaga rasa proporsional - terutama ketika membahas kepunahan spesies delapan miliar individu.
AI dapat menciptakan masalah sosial yang harus benar-benar dihindari. Sebagai ilmuwan, kita memiliki kewajiban untuk memahaminya dan kemudian melakukan yang terbaik untuk menyelesaikannya. Tetapi langkah pertama adalah memberi nama dan mendeskripsikannya - dan lebih spesifik.
Artikel Menarik Lainnya:
0 komentar:
Posting Komentar
Berkomentarlah yang baik dan sopan. Dilarang meninggalkan jejak link hidup maupun iklan promosi di kolom komentar. Silahkan hubungi Admin jika ingin bekerjasama dalam hal iklan. Terima kasih.