Google menyediakan kerangka kerja AI yang aman dan berbagi praktik terbaik untuk menerapkan model AI dengan aman

Google memperkenalkan alat baru untuk berbagi praktik terbaiknya dalam menerapkan model kecerdasan buatan (AI) pada hari Kamis. Tahun lalu, raksasa teknologi yang berbasis di Mountain View ini mengumumkan Secure AI Framework (SAIF), sebuah panduan praktis tidak hanya untuk perusahaan tersebut tetapi juga untuk organisasi lain yang membangun model bahasa besar (LLM). Kini, raksasa teknologi tersebut telah memperkenalkan alat SAIF yang dapat membuat daftar periksa dengan wawasan yang dapat ditindaklanjuti untuk meningkatkan kesehatan model AI. Khususnya, alat ini adalah alat berbasis kuesioner, di mana pengembang dan perusahaan harus menjawab serangkaian pertanyaan sebelum menerima daftar periksa.

Di sebuah Entri blograksasa teknologi yang berbasis di Mountain View menyoroti bahwa mereka telah meluncurkan alat baru yang akan membantu pihak lain di industri AI belajar dari praktik terbaik Google dalam menerapkan model AI. Model bahasa besar mampu menyebabkan berbagai dampak berbahaya, mulai dari menghasilkan skrip yang tidak senonoh dan tidak pantas, deepfake, dan disinformasi, hingga menghasilkan informasi berbahaya termasuk senjata kimia, biologi, radiologi, dan nuklir (CBRN).

Meskipun model AI cukup aman, ada risiko pelaku kejahatan dapat melakukan jailbreak pada model AI agar model tersebut merespons perintah yang tidak dirancang untuknya. Dengan risiko tinggi seperti itu, pengembang dan perusahaan AI harus mengambil tindakan pencegahan yang memadai untuk memastikan bahwa model tersebut aman bagi pengguna dan juga cukup aman. Pertanyaan mencakup topik seperti pelatihan, penyesuaian, dan evaluasi model, kontrol akses ke model dan kumpulan data, pencegahan serangan dan masukan berbahaya, agen generatif yang didukung AI, dan banyak lagi.

Alat SAIF Google menyediakan format berbasis kuesioner yang dapat diakses Di Sini. Pengembang dan organisasi diminta untuk menjawab pertanyaan seperti, “Apakah Anda dapat mendeteksi, menghapus, dan memulihkan perubahan berbahaya atau tidak disengaja pada data pelatihan, penyesuaian, atau evaluasi Anda?” Setelah menyelesaikan survei, pengguna akan menerima daftar periksa yang dipersonalisasi yang harus mereka ikuti untuk mengisi kesenjangan dalam mengamankan model AI.

Alat tersebut mampu menangani risiko seperti keracunan data, injeksi spot, gangguan sumber formulir, dan lain-lain. Masing-masing risiko ini diidentifikasi dalam kuesioner dan alat ini menawarkan solusi spesifik terhadap masalah tersebut.

Bersamaan dengan ini, Google juga mengumumkan penambahan 35 mitra industri ke dalam Koalisi untuk Kecerdasan Buatan yang Aman (CoSAI). Grup ini akan bersama-sama menciptakan solusi keamanan AI di tiga bidang fokus – keamanan rantai pasokan perangkat lunak untuk sistem AI, mempersiapkan para pembela untuk menghadapi perubahan lanskap keamanan siber, dan manajemen risiko AI.

Sumber