Microsoft meluncurkan “Debug,” sebuah fitur AI yang dapat mendeteksi dan memperbaiki halusinasi AI

Microsoft meluncurkan kemampuan kecerdasan buatan (AI) baru pada hari Selasa yang akan mengidentifikasi dan memperbaiki kejadian di mana model AI menghasilkan informasi yang salah. Fitur ini, yang disebut “koreksi,” diintegrasikan ke dalam sistem deteksi landasan Azure AI Content Safety. Karena fitur ini hanya tersedia melalui Azure, kemungkinan besar fitur ini ditujukan untuk pelanggan perusahaan raksasa teknologi. Perusahaan juga berupaya mencari cara lain untuk mengurangi kejadian halusinasi AI. Khususnya, fitur ini juga dapat menampilkan penjelasan mengapa sebagian teks ditandai sebagai informasi yang salah.

Fitur “Patch” Microsoft telah diluncurkan

Di sebuah Entri blograksasa teknologi yang berbasis di Redmond merinci fitur baru yang diduga memerangi halusinasi AI, sebuah fenomena di mana kecerdasan buatan merespons kueri yang berisi informasi yang salah dan gagal mengenali kepalsuannya.

Fitur ini tersedia melalui layanan Microsoft Azure. Sistem Keamanan Konten Azure AI memiliki alat yang disebut deteksi darat. Hal ini menentukan apakah respons yang dihasilkan didasarkan pada kenyataan atau tidak. Meskipun alat itu sendiri bekerja dengan beberapa cara berbeda untuk mendeteksi halusinasi, fitur koreksi bekerja dengan cara tertentu.

Agar patch berfungsi, pengguna harus terhubung ke Azure Ground Documents, yang digunakan untuk peringkasan dokumen dan skenario Tanya Jawab berbasis Pengambilan, Augmentasi, dan Pembuatan (RAG). Setelah terhubung, pengguna dapat mengaktifkan fitur ini. Kemudian, ketika kalimat yang tidak berdasar atau salah dihasilkan, fitur tersebut akan memicu permintaan koreksi.

Sederhananya, dokumen dasar dapat dipahami sebagai pedoman yang harus diikuti oleh sistem AI saat menghasilkan respons. Ini bisa menjadi bahan sumber untuk kueri atau database yang lebih besar.

Fitur tersebut kemudian akan mengevaluasi pernyataan tersebut terhadap dokumen grounding, dan jika terdeteksi sebagai informasi palsu, maka akan disaring. Namun, jika kontennya konsisten dengan dokumen yang mendasarinya, fitur tersebut dapat menulis ulang kalimat tersebut untuk memastikan tidak disalahartikan.

Selain itu, pengguna juga akan memiliki opsi untuk mengaktifkan Refleksi saat pertama kali menyiapkan kemampuan tersebut. Mengaktifkannya akan meminta fitur AI untuk menambahkan penjelasan mengapa menurutnya informasi tersebut salah dan perlu diperbaiki.

Juru bicara perusahaan Dia berkata Edge yang menggunakan fitur koreksi model bahasa kecil (SLM) dan model bahasa besar (LLM) untuk menyelaraskan keluaran dengan dokumen yang mendasarinya. “Penting untuk dicatat bahwa deteksi landasan tidak menyelesaikan masalah ‘akurasi’, namun membantu menyelaraskan keluaran AI generatif dengan dokumen landasan,” publikasi tersebut mengutip pernyataan juru bicara tersebut.

Sumber