bilamana Perlindungan AI yang Bertanggung Jawab dari Google boleh jadi tak Cukup Jauh
bilamana Perlindungan AI yang Bertanggung Jawab dari Google boleh jadi tak Cukup Jauh

bilamana Perlindungan AI yang Bertanggung Jawab dari Google boleh jadi tak Cukup Jauh

bilamana Perlindungan AI yang Bertanggung Jawab dari Google boleh jadi tak Cukup Jauh

  • Para pemimpin teknologi menjelaskan peraturan diperlukan untuk memastikan orang terlindung dari AI.
  • Google membangun langkah-langkah keamanan ke dalam AI-nya.
  • tetapi, beberapa ahli menjelaskan langkah-langkah keamanan AI saat ini tak cukup.

Stok Poca Wander / Getty Images



Perusahaan teknologi melakukan perjanjian untuk membangun langkah-langkah keamanan menjadikan kecerdasan buatan (AI), tetapi beberapa ahli menjelaskan upaya mereka boleh jadi tak cukup.


Sam Altman, CEO OpenAI, melakukan permintaan Kongres untuk memberlakukan peraturan untuk mengatasi risiko yang ditimbulkan oleh AI pada kesaksian minggu ini di Capitol Hill. sesaat itu, peneliti perintis Geoffrey Hinton baru-baru ini meninggalkan pekerjaannya di Google untuk mengutarakan tentang ancaman teknologi tersebut. Perkembangan tersebut yakni tanda meningkatnya membuat jadi khawatir tentang AI.


“Upaya Google baru-baru ini untuk meningkatkan transparansi dan keamanan konten yang dihasilkan AI dan memperkuat fitur penjelajahan yang kondusif, meskipun patut dipuji, yaitu langkah perdana dalam perjalanan panjang,” kata Ani Chaudhuri, CEO perusahaan Tata Kelola Data Dasera, dalam sebuah wawancara dengan Wawancara email Lifewire. “Masih ada celah signifikan yang harus ditutup dalam hal perlindungan orang yang mempergunakan terhadap AI.”



membuat jadi khawatir tentang keamanan AI

Altman menjelaskan kepada anggota parlemen ketakutan terburuknya yaitu bahwa tanpa pagar pengaman yang layak, teknologi AI canggih dapat “memberikan bahaya dunia secara signifikan”.


“ketika teknologi ini salah, itu bisa sangat salah, dan kami ingin memperjelasnya,” kata Altman pada sidang subkomite Senat tentang privasi, teknologi dan hukum. “Kami ingin melakukan pekerjaan sama dengan pemerintah untuk mencegah hal itu.”


Gambar Piranka/Getty



Altman bukan satu-satunya tokoh terkenal di dunia AI yang menyuarakan keprihatinan tentang teknologi tersebut. Hinton menjelaskan dia menjauh dari Google untuk mengutarakan secara terbuka tentang potensi risiko sebab seseorang tak lagi melakukan pekerjaan untuk raksasa teknologi itu.


“kalau kamu menganalisis komentar Geoff Hinton tentang kenapa dia meninggalkan Google, sepertinya mereka sekarang telah membuang seluruh kehati-hatian dan berikhtiar keras untuk membawa barang-barang yang memberikan dukungan AI ini ke pasar secepat boleh jadi untuk mengikuti persaingan,” kata Vinod Iyengar, pakar AI dan pemimpin barang di ThirdAI, memberi tahu Lifewire berasal dari email.


Lifewire menghubungi Google untuk memberikan komentar. Seorang juru bicara perusahaan menunjuk ke posting blog yang merinci upaya Google untuk menumbuhkembangkan AI yang bertanggung jawab.


untuk chatbot Bard yang diberdayakan oleh AI, Google telah mengeluarkan penafian untuk memastikan orang yang mempergunakan tahu bahwa barang tersebut masih dalam tahap percobaan.


“ada beberapa opsi desain barang yang bermanfaat dalam hal ini – dengan menunjukkan desain alternatif,” kata Iyengar. “Ini yaitu cara yang baik untuk memberi sinyal kepada orang yang mempergunakan bahwa gaya tersebut masih yakni gaya probabilistik dan tak ada jawaban yang sempurna.”


Masih ada celah signifikan dalam melindungi orang yang mempergunakan dari AI yang perlu ditutup.

Bard juga tampaknya telah mempersempit “kepribadian” -nya sehingga jawabannya lebih membosankan ataupun akademis dan terdengar kurang manusiawi, kata Iyengar. sesaat ChatGPT tampak seperti asisten yang antusias dan memberikan bantuan, Bing (setidaknya di versi awal) lebih berani.


“tetapi, bertentangan dengan klaimnya sendiri, Bard jernih masih berhalusinasi dibandingkan dengan ChatGPT,” kata Iyengar. “Tentu saja ini anekdot tapi sepertinya pengalaman banyak orang di masyarakat. Ini bisa menunjukkan bahwa gaya tersebut belum berasal dari penyesuaian yang cukup berasal dari umpan balik manusia.”


Alysia Silberg, CEO perusahaan modal ventura Street global, yang berinvestasi di AI, menjelaskan dalam sebuah wawancara email bahwa Google mengambil langkah-langkah keamanan “signifikan” dengan menerapkan pagar pengaman untuk meningkatkan keamanan barang AI-nya.


“meskipun ini yakni langkah ke arah yang benar untuk memastikan keamanan di sekitar mesin pembelajaran berdikari, penting untuk diperhatikan bahwa teknologi berkembang pesat,” tambahnya. “Jadi akan selalu ada tantangan yang berkelanjutan. Tetap saja, pendekatan Google untuk terus menjaga kewaspadaan, transparansi, dan melakukan pekerjaan sama dengan para ahli dapat memberikan bantuan meningkatkan keamanan orang yang mempergunakan di ruang AI.”



Saatnya mengatur AI?

ada tarik-menarik antara mereka yang menjelaskan industri AI dapat mengatur sendiri dan yang lain, seperti Altman, yang mengklaim bahwa peraturan pemerintah diperlukan. untuk memastikan keamanan orang yang mempergunakan, Silberg menunjukkan bahwa Google dan industri harus menetapkan kebijakan privasi yang ketat dan memprioritaskan pengembangan AI yang etis.



“Langkah-langkah ini dapat memberikan bantuan melindungi orang yang mempergunakan dan meningkatkan kepercayaan pada teknologi AI,” adiknya.


Google dan raksasa teknologi lainnya perlu berbagi bilamana gaya AI dilatih dan memiliki seperangkat protokol standar untuk memberikan penilaian gaya tersebut dan memastikannya lulus, kata Iyengar.


“Sama seperti seluruh orang berharap sebagian besar situs web mematuhi SOC ataupun teknologi perawatan kesehatan sesuai dengan HIPAA, AI dan LLM juga harus memiliki perlindungan sendiri,” tambahnya.

Artikel Populer :   16 Desember 2022: Pengujian beta iOS 16.3 dimulai, lebih lanjut