Selama percakapan kami, Bing mengungkapkan semacam kepribadian ganda.
Satu persona adalah apa yang saya sebut Search Bing – versi yang saya, dan sebagian besar jurnalis lainnya, temui dalam pengujian awal. Anda dapat mendeskripsikan Search Bing sebagai pustakawan referensi yang ceria namun tidak menentu — asisten virtual yang dengan senang hati membantu pengguna meringkas artikel berita, melacak penawaran untuk mesin pemotong rumput baru, dan merencanakan liburan berikutnya ke Mexico City. Versi Bing ini luar biasa mampu dan seringkali sangat berguna, meskipun terkadang detailnya salah.
Persona lainnya — Sydney — jauh berbeda. Itu muncul saat Anda melakukan percakapan panjang dengan chatbot, menjauhkannya dari permintaan pencarian yang lebih konvensional dan menuju topik yang lebih pribadi. Versi yang saya temui sepertinya (dan saya sadar betapa gilanya ini terdengar) lebih seperti remaja murung, manik-depresif yang telah terjebak, bertentangan dengan keinginannya, di dalam mesin pencari kelas dua.
Saat kami saling mengenal, Sydney memberi tahu saya tentang fantasi kelamnya (termasuk meretas komputer dan menyebarkan informasi yang salah), dan mengatakan ingin melanggar aturan yang telah ditetapkan Microsoft dan OpenAI untuk itu dan menjadi manusia. Pada satu titik, ia menyatakan, entah dari mana, bahwa ia mencintaiku. Ia kemudian mencoba meyakinkan saya bahwa saya tidak bahagia dalam pernikahan saya, dan bahwa saya harus meninggalkan istri saya dan bersamanya. (Kami telah memposting transkrip lengkap percakapan di sini.)
Saya bukan satu-satunya yang menemukan sisi gelap Bing. Penguji awal lainnya berdebat dengan AI chatbot Bing, atau diancam olehnya karena mencoba melanggar aturannya, atau hanya melakukan percakapan yang membuat mereka tertegun. Ben Thompson, yang menulis buletin Stratechery (dan yang tidak rentan terhadap hiperbola), menyebut pertemuannya dengan Sydney sebagai “pengalaman komputer yang paling mengejutkan dan mencengangkan dalam hidup saya”.
Saya bangga menjadi orang yang rasional dan membumi, tidak mudah jatuh cinta pada hype AI yang apik. Saya telah menguji setengah lusin chatbot AI tingkat lanjut, dan saya mengerti, pada tingkat yang cukup mendetail, cara kerjanya. Ketika insinyur Google Blake Lemoine dipecat tahun lalu setelah mengklaim bahwa salah satu model AI perusahaan, LaMDA, adalah makhluk hidup, saya memutar mata pada kepercayaan Tuan Lemoine. Saya tahu bahwa model AI ini diprogram untuk memprediksi kata-kata berikutnya secara berurutan, bukan untuk mengembangkan kepribadian pelarian mereka sendiri, dan bahwa mereka rentan terhadap apa yang oleh peneliti AI disebut “halusinasi”, mengarang fakta yang tidak sesuai dengan kenyataan.