Apa yang sebenarnya dapat dilakukan oleh kecerdasan buatan hari ini
Apa yang sebenarnya dapat dilakukan oleh kecerdasan buatan hari ini
Anonim

Peringatan spoiler: Masih lama sebelum pemberontakan mesin.

Apa yang sebenarnya dapat dilakukan oleh kecerdasan buatan hari ini
Apa yang sebenarnya dapat dilakukan oleh kecerdasan buatan hari ini

Ketika Elon Musk memperkenalkan robot humanoid Tesla Bot, tampaknya revolusi ilmiah baru akan segera terjadi. Sedikit lagi - dan kecerdasan buatan (AI) akan melampaui manusia, dan mesin akan menggantikan kita di tempat kerja. Namun, Profesor Gary Marcus dan Ernest Davis, keduanya ahli AI terkenal, diminta untuk tidak terburu-buru mengambil kesimpulan seperti itu.

Dalam Artificial Intelligence Reboot, peneliti menjelaskan mengapa teknologi modern jauh dari ideal. Dengan izin dari penerbit "Alpina PRO" Lifehacker menerbitkan kutipan dari bab pertama.

Pada titik ini, ada kesenjangan besar - jurang yang nyata - antara ambisi kami dan realitas kecerdasan buatan. Jurang ini muncul karena tiga masalah khusus yang belum terselesaikan, yang masing-masing harus ditangani secara jujur.

Yang pertama adalah apa yang kita sebut mudah tertipu, yang didasarkan pada kenyataan bahwa kita manusia belum benar-benar belajar membedakan antara manusia dan mesin, dan ini memudahkan kita untuk membodohi kita. Kami mengaitkan kecerdasan dengan komputer karena kami sendiri telah berevolusi dan hidup di antara orang-orang yang sebagian besar mendasarkan tindakan mereka pada abstraksi seperti ide, keyakinan, dan keinginan. Perilaku mesin sering kali secara dangkal mirip dengan perilaku manusia, jadi kami dengan cepat menetapkan mesin jenis mekanisme dasar yang sama, bahkan jika mesin tidak memilikinya.

Mau tak mau kita memikirkan mesin dalam istilah kognitif ("Komputer saya mengira saya menghapus file saya"), tidak peduli seberapa sederhana aturan yang benar-benar diikuti oleh mesin. Namun kesimpulan yang membenarkan diri sendiri bila diterapkan pada manusia bisa jadi sepenuhnya salah bila diterapkan pada program kecerdasan buatan. Untuk menghormati prinsip dasar psikologi sosial, kami menyebutnya kesalahan validitas mendasar.

Salah satu contoh paling awal dari kesalahan ini terjadi pada pertengahan 1960-an, ketika chatbot bernama Eliza meyakinkan beberapa orang bahwa dia benar-benar memahami hal-hal yang mereka katakan kepadanya. Faktanya, Eliza baru saja mengambil kata kunci, mengulangi hal terakhir yang dikatakan orang itu kepadanya, dan dalam situasi buntu dia menggunakan trik percakapan standar seperti "Ceritakan tentang masa kecilmu." Jika Anda menyebut ibu Anda, dia akan bertanya tentang keluarga Anda, meskipun dia tidak tahu apa itu keluarga sebenarnya atau mengapa itu penting bagi orang lain. Itu hanya seperangkat trik, bukan demonstrasi kecerdasan sejati.

Terlepas dari kenyataan bahwa Eliza tidak mengerti orang sama sekali, banyak pengguna yang tertipu oleh dialog dengannya. Beberapa menghabiskan berjam-jam mengetik frasa di keyboard, berbicara dengan cara ini dengan Eliza, tetapi salah menafsirkan trik chatbot, salah mengira pidato burung beo untuk membantu, saran tulus atau simpati.

Joseph Weisenbaum Pencipta Eliza.

Orang-orang yang tahu betul bahwa mereka sedang berbicara dengan mesin segera melupakan fakta ini, seperti halnya pecinta teater mengesampingkan ketidakpercayaan mereka untuk sementara waktu dan lupa bahwa tindakan yang mereka saksikan tidak berhak disebut nyata.

Teman bicara Eliza sering meminta izin untuk percakapan pribadi dengan sistem dan setelah percakapan bersikeras, terlepas dari semua penjelasan saya, bahwa mesin benar-benar memahami mereka.

Dalam kasus lain, kesalahan dalam menilai keaslian bisa berakibat fatal dalam arti kata yang sebenarnya. Pada tahun 2016, salah satu pemilik mobil Tesla otomatis sangat bergantung pada keamanan mode autopilot yang (menurut cerita) dia benar-benar membenamkan dirinya dalam menonton film Harry Potter, meninggalkan mobil untuk melakukan semuanya sendiri.

Semuanya berjalan dengan baik - sampai pada titik tertentu menjadi buruk. Setelah melaju ratusan atau bahkan ribuan mil tanpa kecelakaan, mobil itu bertabrakan (dalam segala arti kata) dengan rintangan yang tidak terduga: sebuah truk putih melintasi jalan raya, dan Tesla bergegas tepat di bawah trailer, membunuh pemilik mobil di tempat.. (Mobil itu muncul untuk memperingatkan pengemudi beberapa kali untuk mengambil kendali, tetapi pengemudi tampaknya terlalu santai untuk bereaksi dengan cepat.)

Moral dari cerita ini jelas: fakta bahwa perangkat mungkin tampak "pintar" untuk sesaat atau dua (dan bahkan enam bulan) tidak berarti sama sekali bahwa itu benar-benar begitu atau dapat mengatasi semua keadaan di mana seseorang akan bereaksi secara memadai.

Masalah kedua yang kita sebut ilusi kemajuan pesat: salah mengira kemajuan dalam kecerdasan buatan, terkait dengan pemecahan masalah yang mudah, untuk kemajuan, terkait dengan pemecahan masalah yang sangat sulit. Ini, misalnya, terjadi dengan sistem IBM Watson: kemajuannya dalam game Jeopardy! tampak sangat menjanjikan, tetapi kenyataannya sistem ini ternyata jauh dari pemahaman bahasa manusia daripada yang diantisipasi para pengembang.

Ada kemungkinan bahwa program AlphaGo DeepMind akan mengikuti jalur yang sama. Permainan go, seperti catur, adalah permainan informasi ideal di mana kedua pemain dapat melihat seluruh papan kapan saja dan menghitung konsekuensi dari gerakan dengan kekuatan kasar.

Dalam kebanyakan kasus, dalam kehidupan nyata, tidak ada yang tahu apa-apa dengan kepastian yang lengkap; data kami sering tidak lengkap atau terdistorsi.

Bahkan dalam kasus yang paling sederhana, ada banyak ketidakpastian. Ketika kita memutuskan untuk pergi ke dokter dengan berjalan kaki atau naik subway (karena hari mendung), kita tidak tahu persis berapa lama waktu yang dibutuhkan untuk menunggu kereta bawah tanah, apakah kereta macet di jalan, apakah kita akan menjejalkan ke dalam kereta seperti ikan haring dalam tong atau kita akan basah kuyup karena hujan di luar, tidak berani naik kereta bawah tanah, dan bagaimana reaksi dokter terhadap keterlambatan kita.

Kami selalu bekerja dengan informasi yang kami miliki. Bermain Go dengan dirinya sendiri jutaan kali, sistem DeepMind AlphaGo tidak pernah berurusan dengan ketidakpastian, hanya tidak tahu apa kekurangan informasi atau ketidaklengkapan dan ketidakkonsistenannya, belum lagi kompleksitas interaksi manusia.

Ada parameter lain yang membuat permainan pikiran menjadi sangat berbeda dari dunia nyata, dan ini sekali lagi berkaitan dengan data. Bahkan game yang rumit (jika aturannya cukup ketat) dapat dimodelkan dengan hampir sempurna, sehingga sistem kecerdasan buatan yang memainkannya dapat dengan mudah mengumpulkan sejumlah besar data yang perlu mereka latih. Jadi, dalam kasus Go, mesin dapat mensimulasikan permainan dengan orang-orang hanya dengan bermain melawan dirinya sendiri; bahkan jika sistem membutuhkan terabyte data, ia akan membuatnya sendiri.

Dengan demikian, programmer dapat memperoleh data simulasi yang benar-benar bersih dengan sedikit atau tanpa biaya. Sebaliknya, di dunia nyata, data yang sangat bersih tidak ada, tidak mungkin untuk mensimulasikannya (karena aturan permainan terus berubah), dan semakin sulit untuk mengumpulkan banyak gigabyte data yang relevan dengan percobaan dan kesalahan.

Pada kenyataannya, kami hanya memiliki beberapa upaya untuk menguji strategi yang berbeda.

Kita tidak dapat, misalnya, mengulang kunjungan ke dokter 10 juta kali, secara bertahap menyesuaikan parameter keputusan sebelum setiap kunjungan, untuk secara dramatis meningkatkan perilaku kita dalam hal pilihan transportasi.

Jika pemrogram ingin melatih robot untuk membantu orang tua (misalnya, membantu menidurkan orang sakit), setiap bit data akan bernilai uang nyata dan waktu manusia yang nyata; tidak ada cara untuk mengumpulkan semua data yang diperlukan menggunakan game simulasi. Bahkan boneka uji tabrakan tidak dapat menggantikan orang sungguhan.

Penting untuk mengumpulkan data tentang orang tua nyata dengan karakteristik gerakan pikun yang berbeda, pada berbagai jenis tempat tidur, berbagai jenis piyama, berbagai jenis rumah, dan di sini Anda tidak dapat membuat kesalahan, karena menjatuhkan seseorang bahkan pada jarak beberapa sentimeter dari tempat tidur akan menjadi bencana. Dalam hal ini, yang dipertaruhkan adalah kemajuan tertentu (sejauh ini yang paling mendasar) di bidang ini telah dicapai dengan menggunakan metode kecerdasan buatan yang sempit. Sistem komputer telah dikembangkan yang memainkan hampir pada level pemain manusia terbaik dalam video game Dota 2 dan Starcraft 2, di mana pada waktu tertentu hanya sebagian dari dunia game yang ditampilkan kepada para peserta dan, dengan demikian, setiap pemain menghadapi masalah kurangnya informasi - bahwa dengan tangan ringan Clausewitz disebut "kabut yang tidak diketahui." Namun, sistem yang dikembangkan masih sangat terfokus dan tidak stabil dalam pengoperasiannya. Misalnya, program AlphaStar yang diputar di Starcraft 2 hanya mempelajari satu ras tertentu dari berbagai macam karakter, dan hampir tidak ada perkembangan ini yang dapat dimainkan seperti ras lainnya. Dan, tentu saja, tidak ada alasan untuk percaya bahwa metode yang digunakan dalam program ini cocok untuk membuat generalisasi yang berhasil dalam situasi kehidupan nyata yang jauh lebih kompleks. kehidupan nyata. Seperti yang ditemukan IBM tidak hanya sekali, tetapi sudah dua kali (pertama dalam catur, dan kemudian dalam Jeopardy!), Sukses dalam masalah dari dunia tertutup sama sekali tidak menjamin kesuksesan di dunia terbuka.

Lingkaran ketiga dari jurang yang dijelaskan adalah perkiraan keandalan yang berlebihan. Berkali-kali, kita melihat bahwa begitu orang dengan bantuan kecerdasan buatan menemukan solusi untuk beberapa masalah yang dapat berfungsi tanpa kegagalan untuk sementara waktu, mereka secara otomatis berasumsi bahwa dengan revisi (dan dengan jumlah data yang sedikit lebih besar) semuanya akan bekerja dengan andal. waktu. Tapi ini belum tentu demikian.

Kami mengambil lagi mobil tanpa pengemudi. Relatif mudah untuk membuat demo kendaraan otonom yang akan melaju dengan benar di sepanjang jalur yang ditandai dengan jelas di jalan yang tenang; Namun, orang telah mampu melakukan ini selama lebih dari satu abad. Namun, jauh lebih sulit untuk membuat sistem ini bekerja dalam keadaan yang sulit atau tidak terduga.

Seperti yang dikatakan Missy Cummings, direktur Laboratorium Manusia dan Otonomi di Universitas Duke (dan mantan pilot pesawat tempur Angkatan Laut AS), kepada kami melalui email, pertanyaannya bukanlah berapa mil yang dapat ditempuh mobil tanpa pengemudi tanpa kecelakaan, tetapi sejauh mana di mana mobil-mobil ini mampu beradaptasi dengan situasi yang berubah. Menurut Missy Cummings-nya, email ke penulis pada 22 September 2018., kendaraan semi-otonom modern "biasanya hanya beroperasi dalam rentang kondisi yang sangat sempit, yang tidak mengatakan apa pun tentang bagaimana mereka dapat beroperasi di bawah kondisi yang kurang ideal."

Terlihat sangat andal pada jutaan mil uji di Phoenix tidak berarti berkinerja baik selama musim hujan di Bombay.

Perbedaan mendasar antara bagaimana kendaraan otonom berperilaku dalam kondisi ideal (seperti hari-hari cerah di jalan multi-jalur pinggiran kota) dan apa yang mungkin mereka lakukan dalam kondisi ekstrem dapat dengan mudah menjadi masalah keberhasilan dan kegagalan bagi seluruh industri.

Dengan begitu sedikit penekanan pada mengemudi otonom dalam kondisi ekstrim dan metodologi saat ini belum berkembang ke arah memastikan bahwa autopilot akan bekerja dengan benar dalam kondisi yang baru mulai dianggap nyata, mungkin akan segera menjadi jelas bahwa miliaran dolar telah dihabiskan untuk metode membangun mobil self-driving yang gagal memberikan keandalan mengemudi seperti manusia. Ada kemungkinan bahwa untuk mencapai tingkat kepercayaan teknis yang kita butuhkan, diperlukan pendekatan yang secara fundamental berbeda dari yang sekarang.

Dan mobil hanyalah salah satu contoh dari banyak yang serupa. Dalam penelitian modern tentang kecerdasan buatan, keandalannya telah diremehkan secara global. Ini sebagian karena sebagian besar perkembangan saat ini di bidang ini melibatkan masalah yang sangat toleran terhadap kesalahan, seperti merekomendasikan iklan atau mempromosikan produk baru.

Memang, jika kami merekomendasikan Anda lima jenis produk, dan Anda hanya menyukai tiga di antaranya, tidak akan ada salahnya. Tetapi dalam sejumlah aplikasi AI penting untuk masa depan, termasuk mobil tanpa pengemudi, perawatan lansia, dan perencanaan perawatan kesehatan, keandalan seperti manusia akan sangat penting.

Tidak ada yang akan membeli robot rumah yang dapat dengan aman membawa kakek tua Anda ke tempat tidur hanya empat dari lima.

Bahkan dalam tugas-tugas di mana kecerdasan buatan modern secara teoritis harus muncul dalam cahaya terbaik, kegagalan serius terjadi secara teratur, terkadang terlihat sangat lucu. Contoh tipikal: komputer, pada prinsipnya, telah belajar dengan baik bagaimana mengenali apa yang (atau sedang terjadi) dalam gambar ini atau itu.

Terkadang algoritme ini berfungsi dengan baik, tetapi seringkali menghasilkan kesalahan yang benar-benar luar biasa. Jika Anda menampilkan gambar ke sistem otomatis yang menghasilkan teks untuk foto pemandangan sehari-hari, Anda sering mendapatkan jawaban yang sangat mirip dengan apa yang akan ditulis manusia; misalnya, untuk adegan di bawah ini, di mana sekelompok orang sedang bermain frisbee, sistem penghasil subtitle yang dipublikasikan Google memberikannya nama yang tepat.

Gambar 1.1. Sekelompok anak muda bermain frisbee (teks foto yang masuk akal, dihasilkan secara otomatis oleh AI)
Gambar 1.1. Sekelompok anak muda bermain frisbee (teks foto yang masuk akal, dihasilkan secara otomatis oleh AI)

Tetapi lima menit kemudian, Anda dapat dengan mudah mendapatkan jawaban yang benar-benar tidak masuk akal dari sistem yang sama, seperti yang terjadi, misalnya, dengan tanda jalan ini, di mana seseorang menempelkan stiker: komputer yang disebut Pencipta sistem tidak menjelaskan mengapa kesalahan ini terjadi, tetapi kasus seperti itu tidak jarang terjadi. Kita dapat berasumsi bahwa sistem dalam kasus khusus ini mengklasifikasikan (mungkin dari segi warna dan tekstur) foto tersebut mirip dengan gambar lain (dari mana ia belajar) diberi label sebagai "kulkas yang diisi dengan banyak makanan dan minuman." Secara alami, komputer tidak mengerti (yang dapat dengan mudah dipahami oleh seseorang) bahwa tulisan seperti itu hanya cocok untuk kotak logam persegi panjang besar dengan berbagai (dan bahkan tidak semua) benda di dalamnya. adegan ini adalah "kulkas dengan banyak makanan dan minuman."

Beras. 1.2. Kulkas penuh dengan banyak makanan dan minuman (judul yang benar-benar tidak masuk akal, dibuat dengan sistem yang sama seperti di atas)
Beras. 1.2. Kulkas penuh dengan banyak makanan dan minuman (judul yang benar-benar tidak masuk akal, dibuat dengan sistem yang sama seperti di atas)

Demikian juga, mobil tanpa pengemudi sering kali dengan tepat mengidentifikasi apa yang mereka "lihat", tetapi kadang-kadang mereka tampaknya mengabaikan yang sudah jelas, seperti dalam kasus Tesla, yang secara teratur menabrak truk pemadam kebakaran atau ambulans yang diparkir dengan autopilot. Titik buta seperti ini bisa menjadi lebih berbahaya jika berada di sistem yang mengontrol jaringan listrik atau bertanggung jawab untuk memantau kesehatan masyarakat.

Untuk menjembatani kesenjangan antara ambisi dan realitas kecerdasan buatan, kita memerlukan tiga hal: kesadaran yang jelas tentang nilai-nilai yang dipertaruhkan dalam game ini, pemahaman yang jelas tentang mengapa sistem AI modern tidak menjalankan fungsinya dengan cukup andal, dan, akhirnya, pemikiran mesin strategi pengembangan baru.

Karena taruhan pada kecerdasan buatan sangat tinggi dalam hal pekerjaan, keselamatan, dan tatanan masyarakat, ada kebutuhan mendesak bagi kita semua - profesional AI, profesi terkait, warga negara biasa, dan politisi - untuk memahami keadaan sebenarnya. di bidang ini untuk belajar secara kritis menilai tingkat dan sifat perkembangan kecerdasan buatan saat ini.

Sama pentingnya bagi warga negara yang tertarik dengan berita dan statistik untuk memahami betapa mudahnya menyesatkan orang dengan kata-kata dan angka, jadi inilah aspek pemahaman yang semakin signifikan sehingga kita dapat mengetahui di mana kecerdasan buatan berada. di mana itu nyata; apa yang bisa dia lakukan sekarang, dan apa yang dia tidak tahu bagaimana dan, mungkin, tidak akan dia pelajari.

Yang paling penting adalah menyadari bahwa kecerdasan buatan bukanlah sihir, tetapi hanya seperangkat teknik dan algoritma, yang masing-masing memiliki kekuatan dan kelemahannya sendiri, cocok untuk beberapa tugas dan tidak cocok untuk yang lain. Salah satu alasan utama kami menulis buku ini adalah bahwa sebagian besar dari apa yang kami baca tentang kecerdasan buatan tampak bagi kami sebagai fantasi mutlak, tumbuh dari kepercayaan yang tidak berdasar pada kekuatan hampir magis dari kecerdasan buatan.

Sedangkan fiksi ini tidak ada hubungannya dengan kemampuan teknologi modern. Sayangnya, diskusi tentang AI di kalangan masyarakat umum telah dan sangat dipengaruhi oleh spekulasi dan berlebihan: kebanyakan orang tidak tahu betapa sulitnya menciptakan kecerdasan buatan universal.

Mari kita perjelas diskusi lebih lanjut. Meskipun mengklarifikasi realitas yang terkait dengan AI akan membutuhkan kritik serius dari kami, kami sendiri sama sekali bukan penentang kecerdasan buatan, kami sangat menyukai sisi kemajuan teknologi ini. Kami telah menjalani bagian penting dari hidup kami sebagai profesional di bidang ini dan kami ingin itu berkembang secepat mungkin.

Filsuf Amerika Hubert Dreyfus pernah menulis sebuah buku tentang ketinggian apa yang menurutnya tidak akan pernah bisa dicapai oleh kecerdasan buatan. Ini bukan tentang buku ini. Ini berfokus sebagian pada apa yang saat ini tidak dapat dilakukan AI dan mengapa penting untuk memahaminya, tetapi sebagian besar darinya berbicara tentang apa yang dapat dilakukan untuk meningkatkan pemikiran komputer dan memperluasnya ke area yang sekarang sulit dilakukan terlebih dahulu.

Kami tidak ingin kecerdasan buatan menghilang; kami ingin itu meningkat, apalagi, secara radikal, sehingga kami benar-benar dapat mengandalkannya dan memecahkan dengan bantuannya banyak masalah umat manusia. Kami memiliki banyak kritik tentang keadaan kecerdasan buatan saat ini, tetapi kritik kami adalah manifestasi dari kecintaan pada ilmu yang kami lakukan, bukan panggilan untuk menyerah dan meninggalkan segalanya.

Singkatnya, kami percaya bahwa kecerdasan buatan benar-benar dapat mengubah dunia kita secara serius; tetapi kami juga percaya bahwa banyak asumsi dasar tentang AI harus diubah sebelum kami dapat berbicara tentang kemajuan nyata. Usulan "reset" kecerdasan buatan kami sama sekali bukan alasan untuk mengakhiri penelitian (walaupun beberapa orang mungkin memahami buku kami dengan semangat ini), melainkan diagnosis: di mana kita terjebak sekarang dan bagaimana kita keluar darinya. situasi hari ini.

Kami percaya bahwa cara terbaik untuk bergerak maju adalah dengan melihat ke dalam, menghadapi struktur pikiran kita sendiri.

Mesin yang benar-benar cerdas tidak harus benar-benar replika manusia, tetapi siapa pun yang melihat kecerdasan buatan dengan jujur akan melihat bahwa masih banyak yang harus dipelajari dari manusia, terutama dari anak kecil, yang dalam banyak hal jauh lebih unggul daripada mesin di dunia. kemampuan mereka untuk menyerap dan memahami konsep-konsep baru.

Ilmuwan medis sering mencirikan komputer sebagai sistem "manusia super" (dalam satu atau lain cara), tetapi otak manusia masih jauh lebih unggul daripada rekan silikonnya setidaknya dalam lima aspek: kita dapat memahami bahasa, kita dapat memahami dunia, kita dapat secara fleksibel beradaptasi dengan keadaan baru, kita dapat dengan cepat mempelajari hal-hal baru (bahkan tanpa data dalam jumlah besar) dan dapat bernalar dalam menghadapi informasi yang tidak lengkap dan bahkan bertentangan. Di semua lini ini, sistem kecerdasan buatan modern tidak ada harapan di belakang manusia.

Reboot Kecerdasan Buatan
Reboot Kecerdasan Buatan

Kecerdasan Buatan: Reboot akan menarik minat orang-orang yang ingin memahami teknologi modern dan memahami bagaimana dan kapan generasi baru AI dapat membuat hidup kita lebih baik.

Direkomendasikan: