Pemerintah berupaya membangun perlindungan keamanan berdasarkan kecerdasan buatan, namun hambatan dan ketidakpastian menunda kesepakatan lintas negara mengenai prioritas dan hambatan.

Pada bulan November 2023, Inggris menerbitkan Deklarasi Bletchley, setuju untuk meningkatkan upaya global untuk bekerja sama dalam keamanan kecerdasan buatan dengan 28 negara, termasuk Amerika Serikat, Tiongkok, dan Uni Eropa.

Upaya untuk mencapai norma-norma keamanan AI berlanjut pada bulan Mei dengan KTT AI Global kedua, di mana Inggris dan Republik Korea berkomitmen terhadap serangkaian hasil keamanan berdasarkan perjanjian tersebut dari 16 perusahaan teknologi AI global.

“Deklarasi ini memenuhi tujuan utama KTT dengan menetapkan kesepakatan dan tanggung jawab bersama mengenai risiko, peluang, dan proses ke depan untuk kerja sama internasional dalam keamanan dan penelitian AI lintas batas, khususnya melalui kerja sama ilmiah yang lebih besar,” kata Inggris dalam pernyataan terpisah yang menyertai pengumuman tersebut.

dari Uni Eropa UU AIDisahkan pada bulan Mei, undang-undang ini menjadi undang-undang besar pertama di dunia yang mengatur AI. Hal ini mencakup kewenangan penegakan hukum dan hukuman seperti denda hingga $38 juta atau 7% dari pendapatan global tahunan mereka jika perusahaan melanggar hukum.

Setelah itu, dalam tanggapannya yang baru-baru ini muncul, sekelompok senator bipartisan AS merekomendasikan agar Kongres merancang undang-undang pengeluaran darurat untuk AI sebesar $32 miliar dan menerbitkan laporan tentang bagaimana AS harus memanfaatkan peluang AI dan mengatasi risiko.

“Pemerintah tentu saja perlu terlibat dalam AI, terutama jika menyangkut masalah keamanan nasional. Kita perlu memanfaatkan peluang AI namun juga mewaspadai risikonya. Satu-satunya cara adalah dengan memberikan informasi kepada pemerintah, dan dibutuhkan banyak waktu dan uang untuk mendapatkan informasi tersebut,” kata Joseph Thacker, insinyur AI utama dan peneliti keamanan di perusahaan keamanan SaaS. AplikasiOmnikata TechNewsWorld.

Platform SaaS memerlukan keamanan AI

Pentingnya keamanan AI semakin meningkat dari hari ke hari. Hampir setiap produk perangkat lunak, termasuk aplikasi AI, kini dirancang sebagai aplikasi perangkat lunak sebagai layanan (SaaS), kata Thacker. Oleh karena itu, memastikan keamanan dan integritas platform SaaS ini sangatlah penting.

“Kami memerlukan langkah-langkah keamanan yang kuat untuk aplikasi SaaS. Berinvestasi dalam keamanan SaaS harus menjadi prioritas utama bagi setiap perusahaan yang mengembangkan atau menerapkan AI,” ujarnya.

Vendor SaaS yang ada menambahkan AI ke dalam segala hal, sehingga menimbulkan lebih banyak risiko. Dia mengatakan, lembaga pemerintah harus mempertimbangkan hal ini.

Respon AS terhadap Kebutuhan Keamanan AI

Thacker ingin pemerintah AS mengambil pendekatan yang lebih cepat dan hati-hati dalam menghadapi kenyataan hilangnya standar keselamatan AI. Namun, ia memuji komitmen 16 perusahaan AI besar untuk memprioritaskan keselamatan dan penerapan model AI lintas batas yang bertanggung jawab.

“Hal ini menunjukkan meningkatnya kesadaran akan risiko AI dan komitmen untuk memitigasinya. Namun, ujian sebenarnya adalah seberapa baik perusahaan-perusahaan ini menepati komitmen mereka dan seberapa transparan mereka mengenai kebijakan keamanan mereka,” katanya.

Namun, pujiannya kurang dalam dua bidang utama. Dia tidak menyebutkan penyesuaian konsekuensi atau insentif. Keduanya sangat penting, tambahnya.

Menurut Thacker, mewajibkan perusahaan AI untuk mempublikasikan kerangka keamanan menunjukkan akuntabilitas, yang memberikan wawasan tentang kualitas dan kedalaman pengujian mereka. Transparansi memungkinkan pengawasan publik.

“Hal ini juga mendorong pertukaran pengetahuan dan pengembangan praktik terbaik di seluruh industri,” ujarnya.

Thackeray juga menginginkan tindakan legislatif yang cepat dalam hal ini. Namun, mengingat betapa lambatnya tindakan para pejabat AS, menurutnya pergerakan yang signifikan akan menjadi tantangan bagi pemerintah AS dalam waktu dekat.

“Mudah-mudahan dengan berkumpulnya kelompok bipartisan untuk membuat rekomendasi ini akan memulai banyak pembicaraan,” katanya.

Masih menavigasi hal-hal yang tidak diketahui dalam istilah AI

Melissa Ruzzi, direktur kecerdasan buatan di AppOmni, setuju bahwa Global AI Summit merupakan langkah maju yang besar dalam melestarikan evolusi AI. Persyaratan adalah kuncinya.

“Tetapi sebelum kita berpikir untuk menetapkan peraturan, masih banyak penelitian yang harus dilakukan,” katanya kepada TechNewsWorld.

Di sinilah kolaborasi antar perusahaan di industri AI untuk secara sukarela bergabung dalam inisiatif terkait keselamatan AI sangat penting, katanya.

“Menetapkan batasan dan langkah-langkah obyektif adalah tantangan pertama yang harus dieksplorasi. Saya pikir kita belum siap untuk menetapkannya untuk bidang AI secara keseluruhan,” kata Ruzzi.

Menentukan hal-hal tersebut memerlukan lebih banyak penelitian dan data. Ruzzi mengatakan salah satu tantangan terbesarnya adalah mempercepat regulasi AI tanpa menghambat perkembangan teknologi.

Mulailah dengan mendefinisikan kerentanan AI

Menurut Kepala Penasihat Keamanan David Brachler Grup NCCPemerintah harus mempertimbangkan untuk mengkaji definisi dampak buruk sebagai titik awal dalam menetapkan pedoman AI.

Ketika teknologi AI menjadi lebih umum, pergeseran akan berkembang dari pelatihan efisiensi komputasi menjadi pengklasifikasian risiko AI. Standar tersebut merupakan bagian dari perintah eksekutif AS baru-baru ini.

Sebaliknya, perubahan mungkin mengarah pada kerugian nyata yang dapat ditimbulkan oleh AI dalam konteks penerapannya. Ia menyatakan, berbagai undang-undang merujuk pada kemungkinan tersebut.

“Misalnya, sistem AI yang mengontrol lampu lalu lintas harus memiliki langkah keamanan yang lebih baik dibandingkan asisten belanja, meskipun asisten belanja memerlukan lebih banyak daya komputasi untuk berlatih,” kata Brachler kepada TechNewsWorld.

Sejauh ini, belum ada kejelasan mengenai prioritas regulasi dalam pengembangan dan penggunaan AI. Pemerintah harus memprioritaskan dampak nyata terhadap masyarakat dalam penerapan teknologi ini. Hukum tidak boleh mencoba memprediksi masa depan jangka panjang dari teknologi yang berubah dengan cepat, katanya.

Jika risiko yang ada saat ini muncul akibat teknologi AI, pemerintah dapat memberikan respons yang sesuai jika informasinya akurat. Upaya untuk melegitimasi ancaman-ancaman tersebut kemungkinan besar akan dilakukan secara diam-diam, jelas Brachler.

“Tetapi jika kita mempertimbangkan pencegahan dampak buruk terhadap manusia melalui undang-undang penargetan dampak, kita tidak perlu memprediksi bagaimana AI akan berubah bentuk atau gayanya di masa depan,” katanya.

Menyeimbangkan kontrol pemerintah dan pengawasan legislatif

Thacker melihat keseimbangan yang rumit antara kontrol dan pemantauan saat mengendalikan AI. Oleh karena itu, inovasi tidak boleh dihambat oleh undang-undang yang keras atau bergantung sepenuhnya pada peraturan perusahaan.

“Saya percaya kerangka peraturan yang ringan dikombinasikan dengan mekanisme pengawasan berkualitas tinggi adalah jalan yang harus ditempuh. Pemerintah perlu menerapkan pengamanan dan menegakkan kepatuhan sambil membiarkan pembangunan yang bertanggung jawab terus berlanjut,” ujarnya.

Thacker melihat kesamaan antara dorongan peraturan AI dan dinamika seputar senjata nuklir. Ia memperingatkan bahwa negara-negara yang mendominasi AI dapat memperoleh manfaat ekonomi dan militer yang signifikan.

“Hal ini menciptakan insentif bagi negara-negara untuk mengembangkan kemampuan AI dengan cepat. Namun, kerja sama global dalam keamanan AI lebih mungkin dilakukan dibandingkan dengan senjata nuklir karena kita memiliki lebih banyak efek jaringan dengan Internet dan media sosial,” ujarnya.

Source link