
Saat dunia mulai mendorong batasan dan penggunaan sistem AI, ada peningkatan terkait kecelakaan yang diciptakan AI, nyaris celaka, dan bahkan kematian. Insiden seperti itu, mulai dari kecelakaan mobil yang mengemudi sendiri hingga sistem obrolan yang membuat konten rasis, akan meningkat pesat, menurut para ahli yang melacak masalah AI.
Pengembangan dan peluncuran sistem AI pada tahun 2023 sangat luar biasa: sejak OpenAI merilis chatGPT, ada desakan untuk membuat model pembelajaran di banyak bidang, termasuk pembuatan gambar, tugas otomatis, keuangan, dan bidang lainnya. Tetapi dengan peningkatan eksponensial dalam penerapan AI, muncul jejak yang sesuai dari apa yang paling tepat digambarkan sebagai peristiwa yang tidak menguntungkan, beberapa dengan konsekuensi yang tragis.
Database Insiden AI melacak kesalahan, nyaris celaka, dan insiden kritis yang disebabkan oleh sistem AI, dan mencakup beberapa peristiwa mengejutkan. Secara keseluruhan, ada lebih dari 500 insiden, dan seperti yang ditunjukkan bagan di bawah ini, insiden tersebut meningkat dengan cepat. Untuk tahun 2022, database memiliki 90 insiden. Hanya untuk tiga bulan pertama tahun 2023, sudah ada 45, artinya dengan kecepatan saat ini, kita berada di jalur sekitar 180 di tahun 2023—jika penggunaan AI tetap konstan, padahal jelas tidak.
Sean McGregor, pendiri proyek AI Incident Database, dan Ph.D. dalam pembelajaran mesin, diceritakan Minggu berita bahwa “kami memperkirakan insiden AI akan meningkat lebih dari dua kali lipat pada tahun 2023 dan sedang mempersiapkan dunia di mana insiden AI cenderung mengikuti beberapa versi hukum Moore.”
Hukum Moore adalah prediksi oleh salah satu pendiri Intel, Gordon Moore pada tahun 1965 bahwa jumlah transistor pada sirkuit akan berlipat ganda setiap dua tahun—dan karenanya kecepatan dan kemampuan komputasi akan meningkat sebagai hasilnya dengan cara yang sama. Lintasan insiden terkait AI sudah jelas.
Penggunaan AI yang lebih luas akan menciptakan lebih banyak peluang untuk kesalahan, tetapi seperti yang dijelaskan McGregor, tidak ada cara untuk mengukur berapa banyak AI yang digunakan saat ini seperti yang dapat Anda lakukan di sektor bisnis lain: “Pada basis per mil, penerbangan lebih aman dari sebelumnya. Masalah dengan analisis tren insiden AI adalah bahwa tidak ada yang memiliki ukuran besar tentang ‘jarak’ yang ditempuh AI. Kita tahu bahwa jumlah sistem cerdas di dunia meledak, tetapi tidak ada yang dapat mengatakan, ‘AI adalah 30 persen lebih aman dari tahun sebelumnya,’ karena kami hanya mengamati kegagalan dan bukan keberhasilan.”
Beberapa dari kegagalan tersebut tidak dapat diterima secara sosial tetapi tidak fatal, seperti ketika perangkat lunak Foto Google melabeli orang kulit hitam sebagai “gorila” pada tahun 2015, atau alat perekrutan yang harus ditutup oleh Amazon pada tahun 2018 karena seksis ketika menandai kandidat perempuan.
Lainnya berakibat fatal: robot pabrik Volkswagen membunuh seorang pekerja dengan menjepitnya ke pelat logam; pada tahun 2019, seorang pengemudi Tesla Model S dengan mode autopilot dilaporkan melewati lampu merah dan menabrak mobil lain, menewaskan dua orang di Gardena, Los Angeles.
Juga termasuk dalam daftar adalah penerbangan Lion Air yang fatal tahun 2018 yang menewaskan 189 orang di dalamnya. Boeing 737 jatuh ke laut setelah data sensor yang salah menyebabkan sistem manuver otomatis mendorong hidung pesawat berulang kali ke bawah.
Gambar Getty
Basis data dimulai dengan pencukuran dekat yang akan jauh lebih penting daripada apa pun yang pernah dihadapi umat manusia: yang paling dekat dunia dengan perang nuklir habis-habisan. Pada bulan September 1983, seorang letnan kolonel Soviet di Angkatan Pertahanan Udara bernama Stanislav Petrov memutuskan bahwa sistem peringatan rudal yang mendeteksi lima rudal AS yang menuju ke Uni Soviet adalah alarm palsu.
Jika dia melaporkan peringatan itu sebagai serangan, sistem yang ada pada saat itu akan segera memicu pembalasan rudal nuklir. Tidak ada waktu untuk memeriksa, apalagi mencoba saluran diplomatik, dan perang nuklir akan dimulai antara AS dan Uni Soviet, menyebabkan jutaan kematian dan akhir dari sebagian besar peradaban. Bukan hiperbola untuk mengatakan bahwa Petrov “menyelamatkan dunia” seperti yang kita kenal.
Penyebab kesalahan? Sistem mengira sinar matahari memantulkan awan. Petrov ditegur oleh atasannya dan dipindahkan ke posisi yang kurang penting.
McGregor berkata: “Sebagian besar dari apa yang kami lakukan saat ini adalah mempersiapkan dunia di mana insiden AI sangat umum … Merupakan kewajiban bagi pembuat kebijakan, aktor komersial, dan kemanusiaan pada umumnya bahwa kami membangun infrastruktur sosial yang diperlukan. untuk membengkokkan kurva itu ke bawah.”
AI Incident Database dijalankan oleh The Responsible AI Collaborative, sebuah organisasi nirlaba yang dibentuk untuk membantu membuat AI lebih aman. Basis datanya adalah sumber terbuka dan memiliki jaringan sukarelawan di seluruh dunia.
Organisasi dengan entri terbanyak di Database Insiden AI:
Organisasi | Insiden |
46 | |
Tesla | 35 |
28 | |
Amazon | 18 |
OpenAI | 18 |
Youtube | 13 |