Tue. Jan 25th, 2022

ini Sidang Kemuncak Teknologi Transformasi dimulakan pada 13 Oktober dengan tema Kod Rendah / Tanpa Kod: Mencapai Ketangkasan Perusahaan. Daftar sekarang!


baru-baru ini Pusat Penyelidikan Pew Didapati bahawa kebanyakan pakar dan penyokong bimbang bahawa kecerdasan buatan akan terus menumpukan perhatian untuk mengoptimumkan keuntungan dan kawalan sosial, dan tidak mungkin dapat membentuk asas etika dalam sepuluh tahun ke depan.Semasa di Penyelidikan Akademik Awal tahun ini, penyelidik di Cornell University dan University of Pennsylvania mendapati bahawa dua pertiga penyelidik pembelajaran mesin mengatakan bahawa keselamatan kecerdasan buatan semestinya lebih penting daripada yang ada sekarang. Mereka juga mendapati bahawa apabila kecerdasan buatan disokong oleh institusi antarabangsa yang ada seperti PBB atau Kesatuan Eropah, orang bersedia mempercayai kecerdasan buatan.

Sebilangan kebimbangan ini berdasarkan pada model kecerdasan buatan awal, yang menunjukkan bias yang tidak disengajakan. Cth, Algoritma Twitter untuk memotong pratonton gambar secara selektif menunjukkan berat sebelah yang jelas terhadap kumpulan tertentu (Twitter kemudian Penilaian bebas Algoritma dan memutuskan untuk menghapusnya). Bias yang serupa telah dijumpai bukan sahaja dalam penglihatan komputer, tetapi juga di hampir semua bidang pembelajaran mesin.

Kami telah melihat beberapa usaha baru-baru ini untuk mengurangkan masalah tersebut.Contohnya, tahun lalu, Kementerian Pertahanan Nasional mengeluarkan lima Prinsip Kecerdasan Buatan, Mencadangkan bahawa teknologi kecerdasan buatan harus bertanggungjawab, adil, dapat dikesan, dipercayai dan terkawal. Google, Zendesk, dengan Microsoft, Telah juga mengeluarkan panduan yang menyediakan kerangka untuk mencapai tujuan-tujuan ambisius mengenai pengembangan kecerdasan buatan yang beretika. Ini adalah titik permulaan yang baik.

AI beretika masih dalam peringkat awal, tetapi menjadi lebih penting bagi syarikat untuk mengambil tindakan. Pasukan saya mempelajari AI moral dari perspektif prinsip pertama, dan mengembangkannya melalui penyelidikan peserta lain. Kami mengemukakan prinsip-prinsip ini ketika mengembangkan kerangka AI etika kami sendiri, dan berharap ia dapat membantu pasukan lain:

1. Jelaskan masalah yang anda cuba selesaikan dan kenal pasti potensi bias

Langkah pertama dalam mengembangkan AI yang beretika adalah dengan jelas menyatakan masalah yang ingin anda selesaikan. Sebagai contoh, jika anda mengembangkan algoritma pemarkahan kredit, sila jelaskan dengan tepat apa yang ingin ditentukan oleh algoritma anda mengenai pemohon, dan sorot sebarang titik data yang mungkin menyebabkan bias secara tidak sengaja (contohnya, berdasarkan faktor pembaur perkauman di tempat kediaman seseorang) Ini juga bermaksud memahami bias tersembunyi yang mungkin dimiliki jurutera atau pengurus produk, dan memastikan bahawa bias ini tidak ditulis dalam kod. Salah satu cara untuk mengenal pasti berat sebelah dalam fasa reka bentuk adalah dengan melibatkan anggota pasukan dengan perspektif yang berbeza dari awal, sama ada dari segi fungsi perniagaan mereka (seperti perundangan, produk, dan pemasaran), atau dari segi pengalaman dan latar belakang mereka sendiri.

2. Ketahui kumpulan data dan model asas anda

Setelah anda menjelaskan masalah dan mengenal pasti kemungkinan penyimpangan, anda harus menggunakan proses indoktrinasi untuk mengukur kepelbagaian kumpulan data dan prestasi model di seluruh kumpulan yang berminat untuk mengukur penyimpangan. Ini bermaksud mengambil sampel data latihan untuk memastikannya mewakili kumpulan minat dengan adil, dan membagi prestasi model dengan kumpulan minat ini untuk memastikan bahawa anda tidak melihat penurunan prestasi untuk kumpulan tertentu. Sebagai contoh, semasa mengembangkan model penglihatan komputer (seperti algoritma pengesanan emosi), tanyakan pada diri sendiri: Adakah model ini sama berkesan untuk lelaki dan wanita? Sesuai untuk semua warna kulit dan usia? Penting untuk memahami komposisi kumpulan data dan sebarang penyimpangan yang mungkin diperkenalkan secara tidak sengaja semasa latihan atau pengeluaran.

3. Telus dan boleh didekati

Pasukan AI juga harus berusaha untuk lebih memahami model AI mereka dan berkongsi pemahaman ini secara telus dengan pihak berkepentingan yang tepat. Ini mungkin mempunyai pelbagai dimensi, tetapi fokus utamanya adalah pada apa yang boleh dan tidak dapat dilakukan oleh model AI anda, dan kumpulan data asas yang mereka gunakan. Pertimbangkan sistem cadangan kandungan: sebelum memberikan cadangan yang relevan kepada pelanggan, dapatkah Anda menjelaskan berapa banyak maklumat yang diperlukannya? Sekiranya demikian, apakah langkah-langkah yang telah diambil untuk mengurangkan pembesaran pandangan dan penghomogenan pengalaman pengguna? Semakin banyak anda mengetahui tentang teknologi AI yang anda bangunkan, semakin telus anda dapat menerangkannya secara dalaman kepada pengguna dan pasukan lain.Google memberikan contoh yang baik Kad model – Penjelasan ringkas mengenai model AInya, yang menerangkan kapan model tersebut berfungsi paling baik (dan bila tidak sah).

Elemen ketelusan lain ialah menjadikan kecerdasan buatan dapat diakses oleh semua orang, bahkan mereka yang tidak mahir secara teknikal dalam pembelajaran mesin atau statistik. Ini bermaksud menulis kandungan seperti kad model dengan cara yang mudah didekati, dan memberikan penjelasan mudah tentang bagaimana algoritma AI seperti rangkaian saraf konvolusional berfungsi (tidak perlu menyelami kerumitan kejuruteraan atau matematik).

4. Kembangkan proses tinjauan untuk menanamkan ketegaran

AI beretika bukan hanya tanggungjawab pasukan produk dan kejuruteraan. Keseluruhan pasukan syarikat harus mengambil bahagian dalam projek kecerdasan buatan secara sistematik. Ini bermaksud mengembangkan proses untuk memastikan ketelitian etika projek kecerdasan buatan dan untuk mengesan masalah seawal mungkin. Salah satu cara untuk mencapai matlamat ini adalah dengan meminta satu atau lebih agensi bebas mengkaji produk AI semasa masih dalam fasa reka bentuk, dan kemudian menyemaknya semula kemudian dalam kitaran hidup. Kami mempraktikkannya di syarikat saya melalui jawatankuasa privasi dan etika lintas fungsi dan jawatankuasa kecil kecerdasan buatan etika yang berasingan. Kumpulan ini membantu kami menentukan prinsip dan prosedur etika korporat dan menilai idea produk untuk memberikan panduan praktikal mengenai pengembangan AI yang beretika.

5. Pastikan keselamatan dan privasi data pelanggan

Akhirnya, seperti mana-mana projek data, pasukan kecerdasan buatan harus beroperasi dengan minda keselamatan dan keselamatan pertama. Ini bermaksud bahawa setiap kerja AI mengikuti semua garis panduan dalaman mengenai privasi dan keselamatan data, dan melangkah lebih jauh ketika datang ke data yang sangat sensitif (seperti maklumat peribadi atau data visual).

Memastikan privasi juga bermaksud menetapkan prosedur untuk algoritma dan data yang anda simpan dan kongsi secara dalaman dan luaran. Sebagai contoh, jika pengecaman wajah penting untuk fungsi AI yang anda buat, penting untuk mempertimbangkan sama ada dan bagaimana menyimpan maklumat mercu tanda wajah dan siapa yang dapat mengakses data. Untuk data sensitif, hanya pasukan kejuruteraan langsung yang bertanggungjawab untuk menangani fungsi ini (bahkan dapat dilakukan melalui audit yang tepat untuk mencegah penyalahgunaan).

Nantikan masa depan

Walaupun kecerdasan buatan telah membuat kemajuan teknologi yang luar biasa dalam beberapa tahun terakhir, kita masih di peringkat awal untuk menentukan asas kecerdasan buatan yang beretika. Dalam jangka pendek, kita dapat membuat kemajuan dalam kecerdasan buatan yang beretika dengan cara yang nyata. Dari masa ke masa, kita perlu mengembangkan kaedah yang lebih komprehensif dan sistematik untuk menanamkan prinsip reka bentuk etika ke dalam struktur pengembangan kecerdasan buatan. Pada akhirnya, ini akan menjadi syarat bagi kecerdasan buatan untuk membawa manfaat maksimum kepada seluruh masyarakat.

Ali Akhtar adalah ketua data besar dan pembelajaran mesin Penjelmaan Semula.

VC

Misi VentureBeat adalah menjadi dataran bandar digital bagi pembuat keputusan teknologi untuk memperoleh pengetahuan mengenai teknologi transformatif dan melakukan transaksi. Laman web kami memberikan maklumat penting mengenai teknologi data dan strategi untuk membimbing anda memimpin organisasi anda. Kami menjemput anda untuk menjadi ahli komuniti kami untuk mengunjungi:

  • Maklumat terkini mengenai topik yang menarik bagi anda
  • Surat berita kami
  • Kandungan pemimpin pemikiran tertutup dan akses potongan ke aktiviti berharga kami, seperti Transformasi 2021: ketahui lebih lanjut
  • Fungsi rangkaian, dll.

menjadi ahli

By admin

Leave a Reply

Your email address will not be published. Required fields are marked *