Tutup iklan

Bidang teknologi terancam oleh sejumlah faktor. Pengguna takut, misalnya terhadap malware atau hilangnya privasi. Namun menurut tokoh-tokoh berpengaruh di industri teknologi, kita tidak perlu terlalu mengkhawatirkan faktor manusia itu sendiri, melainkan hubungannya dengan kecerdasan buatan. Pada Forum Ekonomi Dunia tahun ini di Davos, para eksekutif dari sejumlah perusahaan teknologi besar menyerukan peraturan legislatif bagi industri ini. Apa alasan mereka melakukan hal tersebut?

“Kecerdasan buatan adalah salah satu hal paling mendalam yang sedang kita kerjakan sebagai umat manusia. Ia memiliki kedalaman lebih dari api atau listrik,” kata CEO Alphabet Inc. Rabu lalu di Forum Ekonomi Dunia. Sundar Pichai menambahkan, regulasi kecerdasan buatan memerlukan kerangka pemrosesan global. Direktur Microsoft Satya Nadella dan direktur IBM Ginni Rometty juga menyerukan standarisasi aturan mengenai penggunaan kecerdasan buatan. Menurut Nadella, saat ini, lebih dari tiga puluh tahun yang lalu, Amerika Serikat, Tiongkok, dan Uni Eropa perlu menetapkan aturan yang menentukan pentingnya kecerdasan buatan bagi masyarakat kita dan bagi dunia.

Upaya masing-masing perusahaan untuk menetapkan aturan etika kecerdasan buatan mereka sendiri di masa lalu telah mendapat protes tidak hanya dari karyawan perusahaan tersebut. Misalnya, Google harus menarik diri dari program rahasia pemerintah Project Maven pada tahun 2018, yang menggunakan teknologi untuk menganalisis gambar dari drone militer, setelah mendapat reaksi keras. Stefan Heumann dari lembaga pemikir Stiftung Neue Verantwortung yang berbasis di Berlin, sehubungan dengan kontroversi etika seputar kecerdasan buatan, mengatakan bahwa organisasi politik harus menetapkan aturan, bukan perusahaan itu sendiri.

Speaker pintar Google Home menggunakan kecerdasan buatan

Gelombang protes terhadap kecerdasan buatan saat ini memiliki alasan yang jelas mengenai hal ini. Hanya dalam beberapa minggu, Uni Eropa harus mengubah rencana undang-undang terkait. Hal ini dapat mencakup, misalnya, peraturan mengenai pengembangan kecerdasan buatan di sektor-sektor yang disebut berisiko tinggi seperti layanan kesehatan atau transportasi. Menurut peraturan baru, misalnya, perusahaan harus mendokumentasikan dalam kerangka transparansi bagaimana mereka membangun sistem AI mereka.

Sehubungan dengan kecerdasan buatan, beberapa skandal telah muncul di masa lalu - salah satunya adalah, misalnya, urusan Cambridge Analytica. Di perusahaan Amazon, karyawan menguping pengguna melalui asisten digital Alexa, dan pada musim panas tahun lalu, sebuah skandal kembali meletus karena fakta bahwa perusahaan Google - atau platform YouTube - mengumpulkan data dari anak-anak di bawah usia tiga belas tahun. tanpa persetujuan orang tua.

Meskipun beberapa perusahaan diam mengenai topik ini, menurut pernyataan wakil presidennya Nicola Mendelsohn, Facebook baru-baru ini menetapkan aturannya sendiri, mirip dengan peraturan GDPR Eropa. Mendelsohn mengatakan dalam sebuah pernyataan bahwa ini adalah hasil dari dorongan Facebook terhadap regulasi global. Keith Enright, yang bertanggung jawab atas privasi di Google, mengatakan pada konferensi baru-baru ini di Brussels bahwa perusahaan saat ini sedang mencari cara untuk meminimalkan jumlah data pengguna yang perlu dikumpulkan. “Tetapi klaim populer yang tersebar luas adalah bahwa perusahaan seperti kami berusaha mengumpulkan data sebanyak mungkin,” Lebih lanjut dia menyatakan, seraya menambahkan bahwa menyimpan data yang tidak memberikan nilai apa pun bagi pengguna adalah tindakan yang berisiko.

Regulator tampaknya tidak meremehkan perlindungan data pengguna dalam hal apa pun. Amerika Serikat saat ini sedang mengerjakan undang-undang federal yang mirip dengan GDPR. Berdasarkan hal tersebut, perusahaan harus mendapatkan persetujuan dari pelanggannya untuk memberikan datanya kepada pihak ketiga.

Siri FB

Zdroj: Bloomberg

.