12 Resiko dan Bahaya Kecerdasan Buatan (AI)

Ketika AI semakin canggih dan tersebar luas, suara-suara peringatan terhadap potensi bahaya kecerdasan buatan semakin keras.


“Hal-hal ini bisa menjadi lebih cerdas daripada kita dan bisa memutuskan untuk mengambil alih, dan kita perlu khawatir sekarang tentang bagaimana kita mencegah hal itu terjadi,” kata Geoffrey Hinton , yang dikenal sebagai “Godfather of AI” atas karya dasarnya tentang pembelajaran mesin dan algoritma jaringan saraf . Pada tahun 2023, Hinton meninggalkan posisinya di Google agar dia bisa “ berbicara tentang bahaya AI ,” bahkan ada bagian dari dirinya yang menyesali pekerjaan seumur hidupnya .


Ilmuwan komputer ternama itu tidak sendirian dalam keprihatinannya.


Pendiri Tesla dan SpaceX, Elon Musk, bersama lebih dari 1.000 pemimpin teknologi lainnya, mendesak dalam surat terbuka tahun 2023 untuk menghentikan sementara eksperimen AI berskala besar, dengan alasan bahwa teknologi tersebut dapat “menimbulkan risiko besar bagi masyarakat dan kemanusiaan.”


Baik itu peningkatan otomatisasi pada pekerjaan tertentu , algoritme yang bias gender dan ras, atau senjata otonom yang beroperasi tanpa pengawasan manusia (dan masih banyak lagi), kegelisahan muncul di berbagai bidang. Dan kita masih dalam tahap awal mengenai kemampuan AI sebenarnya.



12 Bahaya AI

Pertanyaan tentang siapa yang mengembangkan AI dan untuk tujuan apa membuat pemahaman tentang potensi kelemahannya menjadi semakin penting. Di bawah ini, kita akan melihat lebih dekat potensi bahaya kecerdasan buatan dan mengeksplorasi cara mengelola risikonya.


Apakah AI Berbahaya?

Komunitas teknologi telah lama memperdebatkan ancaman yang ditimbulkan oleh kecerdasan buatan. Otomatisasi pekerjaan, penyebaran berita palsu, dan perlombaan senjata bertenaga AI yang berbahaya telah disebutkan sebagai beberapa bahaya terbesar yang ditimbulkan oleh AI.


1. Kurangnya Transparansi dan Penjelasan AI 

Model AI dan pembelajaran mendalam mungkin sulit dipahami, bahkan bagi mereka yang bekerja langsung dengan teknologi tersebut . Hal ini menyebabkan kurangnya transparansi tentang bagaimana dan mengapa AI mengambil kesimpulan, sehingga menyebabkan kurangnya penjelasan mengenai data apa yang digunakan algoritma AI, atau mengapa mereka membuat keputusan yang bias atau tidak aman. Kekhawatiran ini telah mendorong penggunaan AI yang dapat dijelaskan , namun masih ada jalan panjang sebelum sistem AI yang transparan menjadi praktik umum.


2. Kehilangan Pekerjaan Karena Otomatisasi AI

Otomatisasi pekerjaan yang didukung AI menjadi perhatian mendesak karena teknologi ini diadopsi di industri seperti pemasaran , manufaktur , dan layanan kesehatan . Pada tahun 2030, tugas-tugas yang memakan waktu hingga 30 persen dari jam kerja saat ini di perekonomian AS dapat diotomatisasi – dengan karyawan kulit hitam dan Hispanik menjadi sangat rentan terhadap perubahan tersebut – menurut McKinsey . Goldman Sachs bahkan menyatakan 300 juta pekerjaan penuh waktu bisa hilang karena otomatisasi AI.


"Alasan mengapa tingkat pengangguran kita rendah, yang sebenarnya tidak mencakup orang-orang yang tidak mencari pekerjaan, sebagian besar adalah karena pekerjaan di sektor jasa dengan upah rendah telah diciptakan dengan cukup kuat oleh ekonomi ini," kata futuris Martin Ford kepada Built In. Namun, dengan meningkatnya AI, "Saya rasa hal itu tidak akan berlanjut."


Seiring robot AI menjadi lebih pintar dan cekatan, tugas yang sama akan membutuhkan lebih sedikit manusia. Dan meskipun AI diperkirakan akan menciptakan 97 juta pekerjaan baru pada tahun 2025 , banyak karyawan tidak akan memiliki keterampilan yang dibutuhkan untuk peran teknis ini dan bisa tertinggal jika perusahaan tidak meningkatkan keterampilan tenaga kerja mereka .


“Jika Anda menjual burger di McDonald's dan semakin banyak otomatisasi yang masuk, apakah salah satu pekerjaan baru ini cocok untuk Anda?” kata Ford. “Atau mungkinkah pekerjaan baru tersebut memerlukan banyak pendidikan atau pelatihan atau bahkan mungkin bakat intrinsik – keterampilan antarpribadi atau kreativitas yang sangat kuat – yang mungkin tidak Anda miliki? Karena itulah hal-hal yang, setidaknya sejauh ini, belum bisa dilakukan dengan baik oleh komputer.”


Bahkan profesi yang memerlukan gelar sarjana dan pelatihan tambahan pasca-perguruan tinggi pun tidak kebal terhadap perpindahan AI.


Seperti yang telah ditunjukkan oleh ahli strategi teknologi Chris Messina, bidang-bidang seperti hukum dan akuntansi siap untuk diambil alih oleh AI. Bahkan, kata Messina, beberapa di antaranya mungkin akan hancur. AI sudah memberikan dampak yang signifikan pada bidang kedokteran. Hukum dan akuntansi akan menjadi yang berikutnya, kata Messina, yang pertama siap untuk "perombakan besar-besaran."


“Pikirkan kompleksitas kontrak, dan benar-benar mendalami serta memahami apa yang diperlukan untuk menciptakan struktur kesepakatan yang sempurna,” ujarnya terkait bidang hukum. “Banyak pengacara yang membaca banyak informasi — ratusan atau ribuan halaman data dan dokumen. Sangat mudah untuk melewatkan sesuatu. Jadi AI yang memiliki kemampuan untuk menyisir dan secara komprehensif memberikan kontrak terbaik untuk hasil yang ingin Anda capai mungkin akan menggantikan banyak pengacara perusahaan.”


LEBIH LANJUT TENTANG KECERDASAN BUATAN

AI Copywriting: Mengapa Pekerjaan Menulis Aman


3. Manipulasi Sosial Melalui Algoritma AI

Manipulasi sosial juga menjadi bahaya kecerdasan buatan. Ketakutan ini telah menjadi kenyataan karena politisi mengandalkan platform untuk mempromosikan sudut pandang mereka, salah satu contohnya adalah Ferdinand Marcos, Jr., yang menggunakan pasukan troll TikTok untuk menarik suara warga Filipina yang lebih muda selama pemilihan umum Filipina tahun 2022. 


TikTok, yang merupakan salah satu contoh platform media sosial yang mengandalkan algoritma AI , mengisi umpan pengguna dengan konten yang terkait dengan media sebelumnya yang pernah mereka lihat di platform tersebut. Kritik terhadap aplikasi tersebut menargetkan proses ini dan kegagalan algoritma untuk menyaring konten yang berbahaya dan tidak akurat, sehingga menimbulkan kekhawatiran atas kemampuan TikTok untuk melindungi penggunanya dari informasi yang menyesatkan. 


Media dan berita daring menjadi semakin suram karena adanya gambar dan video yang dihasilkan AI, pengubah suara AI, serta deepfake yang menyusup ke ranah politik dan sosial. Teknologi ini memudahkan pembuatan foto, video, klip audio yang realistis, atau mengganti gambar satu tokoh dengan tokoh lain dalam gambar atau video yang sudah ada. Akibatnya, pelaku kejahatan memiliki cara lain untuk menyebarkan misinformasi dan propaganda perang , sehingga menciptakan skenario mimpi buruk di mana hampir mustahil untuk membedakan antara berita yang kredibel dan yang salah. 


“Tidak ada yang tahu mana yang nyata dan mana yang tidak,” kata Ford. “Jadi ini benar-benar mengarah pada situasi di mana Anda benar-benar tidak dapat mempercayai mata dan telinga Anda sendiri; Anda tidak dapat mengandalkan apa yang, secara historis, kami anggap sebagai bukti terbaik... Itu akan menjadi masalah besar.”


LEBIH LANJUT TENTANG KECERDASAN BUATAN

Cara Mengenali Teknologi Deepfake


4. Pengawasan Sosial Dengan Teknologi AI

Selain ancaman yang lebih nyata, Ford fokus pada dampak buruk AI terhadap privasi dan keamanan. Contoh utamanya adalah penggunaan teknologi pengenalan wajah di kantor, sekolah, dan tempat lainnya di Tiongkok. Selain melacak pergerakan seseorang, pemerintah Tiongkok mungkin dapat mengumpulkan cukup data untuk memantau aktivitas, hubungan, dan pandangan politik seseorang. 


Contoh lainnya adalah departemen kepolisian AS yang menerapkan algoritma kepolisian prediktif untuk mengantisipasi di mana kejahatan akan terjadi. Masalahnya adalah algoritma ini dipengaruhi oleh tingkat penangkapan, yang secara tidak proporsional berdampak pada komunitas kulit hitam . Departemen kepolisian kemudian melakukan tindakan ganda terhadap komunitas-komunitas ini, yang mengarah pada kebijakan yang berlebihan dan pertanyaan mengenai apakah negara-negara yang memproklamirkan diri sebagai negara demokrasi dapat menolak menjadikan AI sebagai senjata otoriter.


"Rezim otoriter menggunakan atau akan menggunakannya," kata Ford. "Pertanyaannya adalah, seberapa besar pengaruhnya terhadap negara-negara Barat, demokrasi, dan batasan apa yang kita terapkan terhadapnya?"


TERKAIT

Apakah Robot Polisi Masa Depan Penegakan Hukum?


5. Kurangnya Privasi Data Menggunakan Alat AI

Jika Anda pernah mencoba chatbot AI atau mencoba filter wajah AI secara online, data Anda akan dikumpulkan — namun ke mana data tersebut akan dikirim dan bagaimana cara penggunaannya? Sistem AI sering kali mengumpulkan data pribadi untuk menyesuaikan pengalaman pengguna atau untuk membantu melatih model AI yang Anda gunakan (terutama jika alat AI tersebut gratis). Data bahkan mungkin tidak dianggap aman dari pengguna lain ketika diberikan ke sistem AI, karena salah satu insiden bug yang terjadi dengan ChatGPT pada tahun 2023 “ memungkinkan beberapa pengguna melihat judul dari riwayat obrolan pengguna aktif lainnya .” Meskipun terdapat undang-undang yang melindungi informasi pribadi di beberapa kasus di Amerika Serikat, tidak ada undang-undang federal yang secara eksplisit melindungi warga negara dari bahaya privasi data yang disebabkan oleh AI.


6. Bias Akibat AI

Berbagai bentuk bias AI juga merugikan. Berbicara kepada New York Times , profesor ilmu komputer Princeton Olga Russakovsky mengatakan bias AI lebih dari sekadar gender dan ras . Selain data dan bias algoritmik (yang terakhir dapat “memperkuat” bias algoritmik), AI dikembangkan oleh manusia — dan pada dasarnya manusia memiliki bias .


“Peneliti AI sebagian besar adalah laki-laki, yang berasal dari demografi ras tertentu, yang tumbuh di daerah dengan sosial ekonomi tinggi, terutama orang-orang tanpa disabilitas,” kata Russakovsky. “Kami adalah populasi yang cukup homogen, jadi merupakan tantangan untuk berpikir secara luas tentang isu-isu dunia.”


Pengalaman terbatas para kreator AI dapat menjelaskan mengapa AI pengenalan suara sering kali gagal memahami dialek dan aksen tertentu, atau mengapa perusahaan gagal mempertimbangkan konsekuensi dari chatbot yang meniru tokoh-tokoh terkenal dalam sejarah manusia. Pengembang dan bisnis harus lebih berhati-hati untuk menghindari terciptanya bias dan prasangka kuat yang membahayakan populasi minoritas.


7. Ketimpangan Sosial Ekonomi Akibat AI 

Jika perusahaan menolak mengakui bias bawaan yang tertanam dalam algoritma AI, mereka dapat mengorbankan inisiatif DEI mereka melalui perekrutan yang didukung AI . Gagasan bahwa AI dapat mengukur ciri-ciri kandidat melalui analisis wajah dan suara masih tercemar oleh bias rasial, yang mereproduksi praktik perekrutan diskriminatif yang sama yang diklaim ingin dihilangkan oleh perusahaan.  


Ketimpangan sosial ekonomi yang semakin lebar yang dipicu oleh hilangnya pekerjaan akibat AI merupakan penyebab kekhawatiran lainnya, yang mengungkap bias kelas dalam penerapan AI. Pekerja yang melakukan tugas yang lebih manual dan berulang telah mengalami penurunan upah hingga 70 persen karena otomatisasi, dengan pekerja kantor dan pekerja kantoran sebagian besar tidak tersentuh pada tahap awal AI. Namun, peningkatan penggunaan AI generatif sudah memengaruhi pekerjaan kantor , yang menyebabkan berbagai macam peran mungkin lebih rentan terhadap hilangnya upah atau pekerjaan daripada yang lain.


Klaim luas bahwa AI telah mengatasi batasan sosial atau menciptakan lebih banyak lapangan kerja gagal memberikan gambaran lengkap mengenai dampaknya. Penting untuk memperhitungkan perbedaan berdasarkan ras, kelas, dan kategori lainnya. Jika tidak, maka akan semakin sulit untuk memahami bagaimana AI dan otomatisasi menguntungkan individu dan kelompok tertentu dan merugikan pihak lain.


8. Melemahnya Etika dan Niat Baik Akibat AI

Selain para ahli teknologi, jurnalis, dan tokoh politik, bahkan para pemimpin agama juga turut memperingatkan potensi bahaya AI. Dalam pertemuan Vatikan tahun 2023 dan dalam pesannya untuk Hari Perdamaian Sedunia 2024 , Paus Fransiskus menyerukan negara-negara untuk membuat dan mengadopsi perjanjian internasional yang mengikat yang mengatur pengembangan dan penggunaan AI.


Paus Fransiskus memperingatkan agar kemampuan AI tidak disalahgunakan, dan “membuat pernyataan yang sekilas tampak masuk akal namun tidak berdasar atau mengkhianati bias.” Ia menekankan bagaimana hal ini dapat meningkatkan kampanye disinformasi, ketidakpercayaan terhadap media komunikasi, campur tangan dalam pemilu, dan banyak lagi – yang pada akhirnya meningkatkan risiko “memperburuk konflik dan menghambat perdamaian.” 


Pesatnya perkembangan alat-alat AI generatif membuat kekhawatiran ini semakin berbobot. Banyak pengguna telah menerapkan teknologi ini untuk keluar dari tugas menulis, sehingga mengancam integritas akademik dan kreativitas. Ditambah lagi, AI yang bias dapat digunakan untuk menentukan apakah seseorang cocok untuk mendapatkan pekerjaan, hipotek, bantuan sosial atau suaka politik, sehingga menimbulkan kemungkinan ketidakadilan dan diskriminasi, kata Paus Fransiskus. 


“Kemampuan unik manusia untuk membuat penilaian moral dan keputusan etis lebih dari sekadar kumpulan algoritma yang kompleks,” katanya. “Dan kemampuan itu tidak dapat disederhanakan menjadi pemrograman mesin.”


LEBIH LANJUT TENTANG KECERDASAN BUATAN

Apa itu Etika AI?


9. Senjata Otonom Didukung Oleh AI

Seperti yang sering terjadi, kemajuan teknologi dimanfaatkan untuk tujuan peperangan. Terkait AI, beberapa orang ingin melakukan sesuatu untuk mengatasinya sebelum terlambat: Dalam surat terbuka tahun 2016 , lebih dari 30.000 orang, termasuk peneliti AI dan robotika , menolak investasi pada senjata otonom berbahan bakar AI. 


“Pertanyaan kunci bagi umat manusia saat ini adalah apakah akan memulai perlombaan senjata AI global atau mencegahnya,” tulis mereka. “Jika ada kekuatan militer besar yang mendorong pengembangan senjata AI, perlombaan senjata global tidak dapat dihindari, dan titik akhir dari perkembangan teknologi ini jelas: senjata otonom akan menjadi Kalashnikov masa depan.”


Prediksi ini telah membuahkan hasil dalam bentuk Sistem Senjata Otonom Mematikan , yang menemukan dan menghancurkan target sendiri sambil mematuhi sedikit peraturan. Karena maraknya senjata ampuh dan kompleks, beberapa negara paling kuat di dunia telah menyerah pada kecemasan dan berkontribusi pada perang dingin teknologi .  


Banyak dari senjata-senjata baru ini menimbulkan risiko besar bagi warga sipil di lapangan, namun bahaya tersebut menjadi lebih besar ketika senjata otonom jatuh ke tangan yang salah. Peretas telah menguasai berbagai jenis serangan dunia maya , sehingga tidak sulit membayangkan aktor jahat menyusup ke senjata otonom dan memicu kehancuran total.  


Jika persaingan politik dan kecenderungan perang tidak dikendalikan, kecerdasan buatan bisa saja diterapkan dengan maksud yang paling buruk. Beberapa orang khawatir bahwa, tidak peduli berapa banyak tokoh berpengaruh yang menunjukkan bahaya kecerdasan buatan, kita akan terus memaksakan diri jika ada uang yang bisa dihasilkan.   


“Mentalitasnya adalah, 'Jika kita bisa melakukannya, kita harus mencobanya; mari kita lihat apa yang terjadi,” kata Messina. “'Dan jika kita bisa menghasilkan uang darinya, kita akan melakukannya dalam jumlah besar.' Namun, itu tidak hanya terjadi pada teknologi. Itu telah terjadi sejak lama.'”


10. Krisis Keuangan yang Disebabkan Oleh Algoritma AI

Industri keuangan telah menjadi lebih reseptif terhadap keterlibatan teknologi AI dalam proses keuangan dan perdagangan sehari-hari. Akibatnya, perdagangan algoritmik dapat menjadi penyebab krisis keuangan besar berikutnya di pasar.


Meskipun algoritme AI tidak tertutupi oleh penilaian atau emosi manusia, algoritme tersebut juga tidak memperhitungkan konteks , keterkaitan pasar, dan faktor-faktor seperti kepercayaan dan ketakutan manusia. Algoritme ini kemudian melakukan ribuan perdagangan dengan kecepatan tinggi dengan tujuan menjual beberapa detik kemudian untuk mendapatkan keuntungan kecil. Menjual ribuan perdagangan dapat membuat investor takut untuk melakukan hal yang sama, sehingga menyebabkan kehancuran mendadak dan volatilitas pasar yang ekstrem.


Peristiwa seperti Flash Crash 2010 dan Flash Crash Knight Capital menjadi pengingat akan apa yang bisa terjadi jika algoritma yang gemar berdagang menjadi tidak terkendali, terlepas dari apakah perdagangan cepat dan besar-besaran itu disengaja atau tidak.  


Ini bukan berarti AI tidak menawarkan apa pun bagi dunia keuangan. Faktanya, algoritme AI dapat membantu investor membuat keputusan yang lebih cerdas dan lebih tepat di pasar. Namun, organisasi keuangan perlu memastikan bahwa mereka memahami algoritme AI mereka dan bagaimana algoritme tersebut membuat keputusan. Perusahaan harus mempertimbangkan apakah AI meningkatkan atau menurunkan kepercayaan diri mereka sebelum memperkenalkan teknologi tersebut untuk menghindari timbulnya ketakutan di kalangan investor dan menciptakan kekacauan finansial.


11. Hilangnya Pengaruh Manusia

Ketergantungan yang berlebihan pada teknologi AI dapat mengakibatkan hilangnya pengaruh manusia — dan kurangnya fungsi manusia — di beberapa bagian masyarakat. Penggunaan AI dalam perawatan kesehatan dapat mengakibatkan berkurangnya empati dan penalaran manusia , misalnya. Dan menerapkan AI generatif untuk usaha kreatif dapat mengurangi kreativitas dan ekspresi emosional manusia . Berinteraksi dengan sistem AI terlalu banyak bahkan dapat menyebabkan berkurangnya komunikasi dan keterampilan sosial dengan teman sebaya. Jadi, meskipun AI dapat sangat membantu untuk mengotomatiskan tugas-tugas harian, beberapa orang mempertanyakan apakah itu dapat menahan kecerdasan, kemampuan, dan kebutuhan manusia secara keseluruhan untuk berkomunitas.


12. AI yang sadar diri dan tak terkendali

Ada juga kekhawatiran bahwa AI akan mengalami kemajuan pesat dalam hal kecerdasan sehingga ia menjadi makhluk hidup , dan bertindak di luar kendali manusia — mungkin dengan cara yang jahat. Dugaan laporan mengenai perasaan ini telah terjadi, dengan salah satu akun populer berasal dari mantan insinyur Google yang menyatakan bahwa chatbot AI LaMDA adalah makhluk hidup dan berbicara kepadanya seperti halnya manusia. Karena pencapaian besar AI berikutnya melibatkan pembuatan sistem dengan kecerdasan umum buatan , dan pada akhirnya kecerdasan super buatan , seruan untuk sepenuhnya menghentikan perkembangan ini terus meningkat .


LEBIH LANJUT TENTANG KECERDASAN BUATAN

Apa Efek Eliza?


 


Cara Mengurangi Risiko AI

AI masih memiliki banyak manfaat , seperti mengatur data kesehatan dan menggerakkan mobil tanpa pengemudi. Namun, untuk mendapatkan hasil maksimal dari teknologi yang menjanjikan ini, beberapa pihak berpendapat bahwa diperlukan banyak regulasi.


“Ada bahaya serius bahwa kita akan menjadi lebih pintar dalam waktu dekat dan hal-hal ini mungkin mempunyai motif buruk dan mengambil kendali,” kata Hinton kepada NPR . “Ini bukan hanya masalah fiksi ilmiah. Ini adalah masalah serius yang mungkin akan segera terjadi, dan para politisi perlu memikirkan apa yang harus dilakukan sekarang.”


Mengembangkan Peraturan Hukum

Regulasi AI telah menjadi fokus utama bagi puluhan negara , dan kini AS dan Uni Eropa tengah menciptakan langkah-langkah yang lebih jelas untuk mengelola meningkatnya kecanggihan kecerdasan buatan. Faktanya, Kantor Kebijakan Sains dan Teknologi (OSTP) Gedung Putih menerbitkan AI Bill of Rights pada tahun 2022, sebuah dokumen yang menguraikan untuk membantu memandu penggunaan dan pengembangan AI secara bertanggung jawab. Selain itu, Presiden Joe Biden mengeluarkan perintah eksekutif pada tahun 2023 yang mewajibkan lembaga federal untuk mengembangkan aturan dan pedoman baru untuk keselamatan dan keamanan AI.


Meskipun peraturan hukum mengharuskan teknologi AI tertentu pada akhirnya dilarang, hal ini tidak menghalangi masyarakat untuk mengeksplorasi bidang ini. 


Ford berpendapat bahwa AI sangat penting bagi negara-negara yang ingin berinovasi dan bersaing dengan negara-negara lain di dunia.


“Anda mengatur cara AI digunakan, tetapi Anda tidak menghambat kemajuan dalam teknologi dasar. Saya pikir itu keliru dan berpotensi berbahaya,” kata Ford. “Kita memutuskan di mana kita menginginkan AI dan di mana kita tidak menginginkannya; di mana AI dapat diterima dan di mana tidak. Dan setiap negara akan membuat pilihan yang berbeda.”


LEBIH LANJUT TENTANG KECERDASAN BUATAN

Akankah Tahun Pemilu Ini Menjadi Titik Balik Regulasi AI?


Tetapkan Standar dan Diskusi AI Organisasi

Di tingkat perusahaan, ada banyak langkah yang dapat diambil bisnis saat mengintegrasikan AI ke dalam operasi mereka. Organisasi dapat mengembangkan proses untuk memantau algoritma, menyusun data berkualitas tinggi, dan menjelaskan temuan algoritma AI. Para pemimpin bahkan dapat menjadikan AI sebagai bagian dari budaya perusahaan dan diskusi bisnis rutin mereka, serta menetapkan standar untuk menentukan teknologi AI yang dapat diterima.


Panduan Teknologi dengan Perspektif Humaniora

Meskipun jika menyangkut masyarakat secara keseluruhan, seharusnya ada dorongan yang lebih besar agar teknologi dapat merangkul beragam perspektif humaniora . Peneliti AI dari Universitas Stanford, Fei-Fei Li dan John Etchemendy, mengemukakan argumen ini dalam postingan blog tahun 2019 yang menyerukan kepemimpinan nasional dan global dalam mengatur kecerdasan buatan:   


“Pencipta AI harus mencari wawasan, pengalaman dan keprihatinan orang-orang dari berbagai etnis, gender, budaya dan kelompok sosial-ekonomi, serta orang-orang dari bidang lain, seperti ekonomi, hukum, kedokteran, filsafat, sejarah, sosiologi, komunikasi. , interaksi manusia-komputer, psikologi, dan Studi Sains dan Teknologi (STS).”


Menyeimbangkan inovasi teknologi tinggi dengan pemikiran yang berpusat pada manusia adalah metode ideal untuk menghasilkan teknologi AI yang bertanggung jawab dan memastikan masa depan AI tetap menjanjikan bagi generasi berikutnya. Bahaya kecerdasan buatan harus selalu menjadi topik diskusi, sehingga para pemimpin dapat menemukan cara untuk menggunakan teknologi tersebut demi tujuan yang mulia. 


"Saya rasa kita dapat membicarakan semua risiko ini, dan risiko-risiko itu sangat nyata," kata Ford. "Namun, AI juga akan menjadi alat terpenting dalam perangkat kita untuk memecahkan tantangan terbesar yang kita hadapi."

Comments

Popular posts from this blog

Privacy Policy page

Selain ChatGPT, Inilah 10 Aplikasi Kecerdasan Buatan yang Wajib Dicoba!