ChatGPT akan segera mendapatkan kemampuan untuk menjawab pertanyaan setelah melihat ke kamera ponsel cerdas Anda. Menurut laporan tersebut, bukti fitur Live Video, yang merupakan bagian dari mode audio canggih OpenAI, telah terlihat di versi beta terbaru aplikasi ChatGPT untuk Android. Kemampuan ini pertama kali didemonstrasikan pada bulan Mei saat acara Pembaruan Musim Semi perusahaan AI. Hal ini memungkinkan chatbot mengakses kamera ponsel cerdas dan menjawab pertanyaan tentang lingkungan sekitar pengguna secara real time. Meskipun kemampuan suara emosional dirilis beberapa bulan lalu, perusahaan belum mengumumkan kemungkinan tanggal rilis untuk fitur Video Langsung.
Fitur Video Langsung ChatGPT telah ditemukan di versi beta terbaru
salad robot sebuah laporan Ia merinci bukti fitur Live Video yang ditemukan saat pembongkaran aplikasi Android Package Kit (APK). Beberapa rangkaian kode terkait kemampuan terlihat di ChatGPT beta untuk Android 1.2024.317.
Khususnya, fitur Video Langsung adalah bagian dari mode suara lanjutan ChatGPT, dan memungkinkan chatbot AI memproses data video secara real-time untuk menjawab pertanyaan dan berinteraksi dengan pengguna secara real-time. Melalui ini, ChatGPT dapat memindai lemari es pengguna, memindai bahan-bahan, dan menyarankan resep. Itu juga dapat menganalisis ekspresi pengguna dan mencoba mengukur suasana hati mereka. Hal ini ditambah dengan kemampuan suara emosional yang memungkinkan AI berbicara lebih natural dan ekspresif.
Menurut laporan tersebut, beberapa rangkaian kode yang terkait dengan fitur tersebut terlihat. Salah satu rangkaian pesan tersebut berbunyi: “Ketuk ikon kamera agar ChatGPT dapat melihat sekeliling Anda dan mengobrol tentang hal tersebut,” yang merupakan deskripsi yang sama yang diberikan OpenAI untuk fitur tersebut selama demo.
String lainnya dikatakan menyertakan frasa seperti “Kamera Langsung” dan “Beta”, yang menyoroti bahwa fitur tersebut dapat bekerja secara real-time dan bahwa fitur tersebut sedang dalam pengembangan dan kemungkinan akan dirilis ke pengguna beta terlebih dahulu.
Rangkaian kode lainnya juga menyarankan pengguna untuk tidak menggunakan fitur Video Langsung untuk navigasi langsung atau pengambilan keputusan yang dapat memengaruhi kesehatan atau keselamatan pengguna.
Meskipun kehadiran rangkaian pesan ini tidak menunjukkan peluncuran fitur tersebut, setelah penundaan selama delapan bulan, ini adalah pertama kalinya bukti konklusif ditemukan bahwa perusahaan sedang mengerjakan fitur tersebut. Sebelumnya, OpenAI mengklaim bahwa fitur tersebut ditunda untuk melindungi pengguna.
Perlu dicatat bahwa Google DeepMind juga mendemonstrasikan fitur visi AI serupa di acara Google I/O pada bulan Mei. Fitur yang merupakan bagian dari Project Astra ini memungkinkan Gemini melihat sekeliling pengguna menggunakan kamera perangkat.
Dalam demo tersebut, alat AI Google dapat mengidentifikasi objek dengan benar, menyimpulkan kondisi cuaca saat ini, dan bahkan mengingat hal-hal yang Anda tonton sebelumnya dalam sesi video langsung. Sejauh ini, raksasa teknologi yang berbasis di Mountain View tersebut belum memberikan batas waktu kapan fitur tersebut akan diperkenalkan.