Microsoft Minta Maaf Perihal AI Chatbot Miliknya
Tidak lama ini, Microsoft meluncurkan chatbot dengan AI (artificial intelligent) bernama Tay. Chatbot ini dihubungkan dengan Twitter, sehingga chatbot tersebut bisa merespon orang melalui situs micro blogging tersebut ketika ada yang melakukan mention terhadap dirinya. Namun sayangnya, dalam waktu kurang dari 24 jam, chatbot tersebut malah berubah menjadi chatbot rasis dengan berbagai respon yang kasar.
Atas kasus tersebut, Microsoft membuat pernyataan minta maaf secara resmi atas ketidaknyamanan yang terjadi. Pihaknya menjelaskan bahwa terdapat kesalahan di dalam chatbot tersebut yang kemudian membuat Tay menjadi chatbot yang kasar dan rasis. Walau begitu, Microsoft tidak menjelaskan detil kesalahan seperti apa yang akhirnya membuat Tay menjadi seperti itu.
Berdasarkan para user Twitter, kesalahan tersebut ada pada fitur “repeat after me” (ulangi saya) pada chatbot Tay, di mana fitur ini membuat si chatbot akhirnya mengulangi kata-kata tweet apapun yang diinginkan oleh para pengguna Twitter yang jahil. Alhasil, Tay pun akhirnya merespon tweet dengan gaya dan tingkah laku yang tidak seharusnya terjadi.
Microsoft sendiri tengah membersihkan timeline Tay yang berisi tweet-tweet tidak pantas, sebelum akhirnya pun menghapus Tay secara penuh dari Twitter karena situasinya semakin tidak mengenakkan. Belajar dari masalah ini, Microsoft akan tetap bertahan dalam usahanya dan belajar dari pengalaman untuk tetap maju ke depan dan berkontribusi untuk internet dalam bentuk yang baik, bukan yang terburuk, dari umat manusia.