Microsoft meluncurkan Koreksi, fitur AI yang dapat mendeteksi dan memperbaiki halusinasi

Microsoft pada hari Selasa meluncurkan fitur kecerdasan buatan baru yang akan mengidentifikasi dan memperbaiki kasus di mana model kecerdasan buatan menghasilkan informasi yang salah. Fitur ini dikenal sebagai “koreksi,” dan terintegrasi dalam sistem deteksi kebenaran konten di Keamanan Konten Azure AI. Karena fitur ini hanya tersedia melalui Azure, kemungkinan besar fitur ini ditujukan untuk pelanggan perusahaan raksasa teknologi tersebut. Perusahaan juga berupaya mencari cara lain untuk mengurangi kasus halusinasi yang disebabkan oleh kecerdasan buatan. Khususnya, fitur ini juga dapat memberikan penjelasan mengapa sebagian teks ditandai sebagai informasi yang salah.

Peluncuran fitur “Patch” Microsoft

di dalam blogRaksasa teknologi yang berbasis di Redmond ini mengumumkan fitur baru yang diklaimnya dapat memerangi halusinasi yang disebabkan oleh AI, sebuah fenomena di mana kecerdasan buatan merespons pertanyaan dengan informasi yang salah dan gagal mengenali kebohongannya.

Fitur ini tersedia melalui layanan Microsoft Azure. Sistem Keamanan Konten Azure AI memiliki alat yang dikenal sebagai deteksi grounding. Alat ini menentukan apakah respon yang dihasilkan sesuai dengan kenyataan atau tidak. Meskipun alat itu sendiri bekerja dengan berbagai cara untuk mendeteksi halusinasi, fitur koreksi bekerja dengan cara yang spesifik.

Agar proses debug berfungsi, pengguna harus terhubung ke Azure Core Documents, yang digunakan untuk peringkasan dokumen dan skenario tanya jawab berbasis Pengambilan, Pembuatan, dan Augmentasi (RAG). Setelah terhubung, pengguna dapat mengaktifkan fitur tersebut. Kemudian, setiap kali kalimat yang tidak penting atau salah dihasilkan, fitur tersebut akan memicu permintaan koreksi.

Sederhananya, dokumen dasar dapat dipahami sebagai pedoman yang harus diikuti oleh sistem AI saat menghasilkan respons. Ini bisa berfungsi sebagai bahan sumber untuk kueri atau database yang lebih besar.

Fitur tersebut kemudian akan mengevaluasi pernyataan tersebut terhadap dokumen yang mendasarinya dan jika terdeteksi sebagai informasi yang menyesatkan, maka akan disaring. Namun, jika kontennya konsisten dengan dokumen yang mendasarinya, fitur tersebut dapat menulis ulang kalimat tersebut untuk memastikan tidak disalahartikan.

Selain itu, pengguna juga akan memiliki opsi untuk mengaktifkan heuristik saat menyiapkan kemampuan untuk pertama kalinya. Mengaktifkannya akan meminta fitur AI untuk menambahkan penjelasan mengapa menurutnya informasi tersebut salah dan perlu diperbaiki.

Juru bicara perusahaan Dia berkata The Verge melaporkan bahwa fitur debugging menggunakan model bahasa kecil (SLM) dan model bahasa besar (LLM) untuk menyelaraskan keluaran dengan dokumen dasar. “Penting untuk dicatat bahwa deteksi landasan tidak menyelesaikan masalah ‘akurasi’, namun membantu menyelaraskan keluaran AI generatif dengan dokumen landasan,” majalah tersebut mengutip pernyataan juru bicara tersebut.

Sumber