Drone dan mobil self-driving sebagai senjata: mengapa kita harus takut pada peretas
Drone dan mobil self-driving sebagai senjata: mengapa kita harus takut pada peretas
Anonim

Jika kecerdasan buatan jatuh ke tangan yang salah, dunia beradab bisa jatuh ke dalam kekacauan.

Drone dan mobil self-driving sebagai senjata: mengapa kita harus takut pada peretas
Drone dan mobil self-driving sebagai senjata: mengapa kita harus takut pada peretas

Tidak ada yang akan menyangkal bahwa kecerdasan buatan dapat membawa hidup kita ke tingkat berikutnya. AI mampu menyelesaikan banyak masalah yang berada di luar kemampuan manusia.

Namun, banyak yang percaya bahwa superintelligence pasti ingin menghancurkan kita, seperti SkyNet, atau akan mulai melakukan eksperimen pada orang-orang, seperti GLADoS dari game Portal. Ironisnya, hanya manusia yang bisa membuat kecerdasan buatan menjadi baik atau jahat.

Mengapa kecerdasan buatan bisa menjadi ancaman serius
Mengapa kecerdasan buatan bisa menjadi ancaman serius

Para peneliti dari Universitas Yale, Oxford, Cambridge dan OpenAI telah menerbitkan laporan tentang penyalahgunaan kecerdasan buatan. Dikatakan bahaya sebenarnya datang dari peretas. Dengan bantuan kode berbahaya, mereka dapat mengganggu pengoperasian sistem otomatis di bawah kendali AI.

Para peneliti khawatir bahwa teknologi yang bermaksud baik akan dirugikan. Misalnya, peralatan pengawasan dapat digunakan tidak hanya untuk menangkap teroris, tetapi juga untuk memata-matai warga biasa. Para peneliti juga prihatin dengan drone komersial yang mengirimkan makanan. Sangat mudah untuk mencegat mereka dan menanam sesuatu yang eksplosif.

Skenario lain untuk penggunaan AI yang merusak adalah mobil self-driving. Cukup dengan mengubah beberapa baris kode, dan mesin akan mulai mengabaikan aturan keselamatan.

Mengapa kecerdasan buatan bisa menjadi ancaman serius
Mengapa kecerdasan buatan bisa menjadi ancaman serius

Para ilmuwan percaya ancaman itu bisa berupa digital, fisik, dan politik.

  • Kecerdasan buatan sudah digunakan untuk mempelajari kerentanan berbagai kode perangkat lunak. Di masa depan, peretas dapat membuat bot yang akan melewati perlindungan apa pun.
  • Dengan bantuan AI, seseorang dapat mengotomatiskan banyak proses: misalnya, mengendalikan segerombolan drone atau sekelompok mobil.
  • Dengan bantuan teknologi seperti DeepFake, dimungkinkan untuk mempengaruhi kehidupan politik negara dengan menyebarkan informasi palsu tentang para pemimpin dunia menggunakan bot di Internet.

Contoh-contoh menakutkan ini sejauh ini hanya ada sebagai hipotesis. Penulis penelitian tidak menyarankan penolakan total terhadap teknologi. Sebaliknya, mereka percaya bahwa pemerintah nasional dan perusahaan besar harus menjaga keamanan saat industri AI masih dalam masa pertumbuhan.

Pembuat kebijakan harus mempelajari teknologi dan bekerja dengan para ahli di bidangnya untuk mengatur pembuatan dan penggunaan kecerdasan buatan secara efektif.

Pengembang, pada gilirannya, harus menilai bahaya yang ditimbulkan oleh teknologi tinggi, mengantisipasi konsekuensi terburuk dan memperingatkan para pemimpin dunia tentang hal itu. Laporan tersebut meminta pengembang AI untuk bekerja sama dengan pakar keamanan di bidang lain dan melihat apakah prinsip-prinsip yang memastikan keamanan teknologi ini dapat digunakan untuk melindungi kecerdasan buatan.

Laporan lengkap menjelaskan masalah secara lebih rinci, tetapi intinya adalah bahwa AI adalah alat yang ampuh. Semua pihak yang berkepentingan harus mempelajari teknologi baru dan memastikannya tidak digunakan untuk tujuan kriminal.

Direkomendasikan: