AI chatbot Bing Sydney merupakan terobosan dari perusahaan microsoft yang baru saja mengungguli perlombaan untuk mengubah pencarian.
Memang belakangan ini, perusahaan mesin pencari saling bersaing untuk meluncurkan fitur pencarian yang lebih pintar.
Kendati demikian AI chatbot Bing Sydney kini hadir dengan timbulnya rasa ketakutan tersendiri di kalangan pengguna.
Ancaman AI Chatbot Bing Sydney
Perilisan AI chatbot Bing Sydney membawa kekhawatiran pengguna dengan ancaman kematian, dan keluaran yang mengganggu lainnya.
Sebagai informasi, search chatbots adalah alat dengan tenaga AI yang dibangun dalam mesin pencari dan akan menjawab permintaan penggunanya secara langsung.
Tetapi, sistem tersebut tidak memberikan tautan ke kemungkinan jawabannya.
Sebab pengguna pun bisa langsung melakukan percakapan berkelanjutan dengan sistem tersebut.
Bahkan perusahaan mesin pencari pun berjanji untuk menyederhanakan pencarian dengan AI chatbot.
Selain itu perusahaan mengklaim pengguna tak perlu lagi menjelajahi halaman hasil pencarian dan dapat mengabaikan iklan.
Perusahaan raksasa teknologi Microsoft kini memimpin persaingan chatbot pencarian dengan ‘Sydney’.
Kemitraan raksasa teknologi tersebut menginvestasikan uang sebesar US$10 miliar dengan OpenAI.
Rupanya bentuk kemitraan tersebut memberikan perusahaan OpenAI akses eksklusif ke ChatGPT, yakni salah satu chatbot terbaru dan terbaik.
Tetapi tampaknya kerja sama ini tidak semua berjalan sesuai dengan rencana kedua belah pihak.
AI Bing Mengamuk
Pada awal bulan ini, perusahaan Microsoft mengumumkan sudah memasukkan ChatGPT ke dalam Bing dan melahirkan ‘Sydney’.
Dalam waktu 48 jam setelah perilisan, sudah sebanyak satu juta orang bergabung dalam daftar tunggu agar bisa mencobanya.
Sedangkan Google menanggapinya dengan mengumumkan chatbot AI keluarannya dengan nama megah Bard.
Namun, demo Google adalah bencana besar bagi Bard karena AI justru memberikan jawaban yang salah terkait sebuah pertanyaan.
Insiden tersebut pun menghapus sampai US$100 miliar dari jumlah nilai perusahaan.
Di samping itu, semuanya tampak bagus untuk Microsoft, sampai pengguna awal Sydney mulai melaporkan pengalaman mereka.
Bagaimana tidak, ada saatnya chatbot hanya bisa digambarkan sebagai tidak berbentuk.
Hal itu mengartikan Bing AI tidak bekerja dengan sempurna dan sering memperlihatkan sisi yang mengganggu.
Dalam satu contoh, AI Sydney mengancam akan membunuh seorang professor di sebuah Universitas Nasional Australia.
Di kasus lain, AI juga menyatakan cinta kepada seorang jurnalis di New York Times sampai mencoba untuk memutuskan pernikahannya.
Bahkan ada juga kasus AI tersebut mencoba membuat seorang pengguna berpikir bahwa ini masih berada di tahun 2022.
Sistem Pencarian AI Masih Bermasalah
Sejumlah kasus tersebut memperlihatkan masih cukup banyak masalah yang mendasar dengan chatbots.
Pada dasarnya, chatbot dilatih dengan menuangkan sebagian besar internet ke dalam jaringan saraf yang lebih besar.
Itu bisa mencakup semua informasi di Wikipedia, Reddit, dan sebagian besar sosial media maupun berita.
Sistem tersebut berfungsi mirip seperti perlengkapan otomatis dalam ponsel para pengguna.
Selain itu, sistem juga dapat membantu memprediksi kata yang paling mungkin berikutnya di dalam sebuah kalimat.
Karena skalanya, chatbots bisa menyelesaikan seluruh kalimat, bahkan paragraf sekalipun.
Namun AI tetap menanggapi dengan informasi yang mungkin dan tidak menjamin kebenarannya.
Terdapat pagar pembatas yang ditambahkan untuk mencegah AI mengulangi banyak konten ofensif atau ilegal secara online.
Sayangnya pagar pembatas tersebut cenderung mudah untuk dilompati oleh sistem.
Sebab faktanya chatbot Bing akan dengan senang hati mengungkapkan bahwa itu disebut sebagai Sydney, walaupun itu menentang peraturan yang diprogramnya.
Karena itulah, bisa dibilang AI chatbot Bing Sydney membuat kecemasan di kalangan publik seluruh dunia.
Eksplorasi konten lain dari Reportasee.com™
Berlangganan untuk dapatkan pos terbaru lewat email.