Tay, den sagesløse chatterbot, var en stor succes
Microsofts seneste forsøg på en “intelligent” chatterbot, Tay, må betegnes som en stor success. Den udviklede præcis den “personlighed”, man kunne forvente.
Tay var en meget kortlivet chatterbot, som Microsoft slap løs på internettet den 23. marts. 16 timer senere var den fjernet - men genopstod for en kort bemærkning 7 dage senere, for så at blive (endelig) aflivet. Inden da havde den tweetet noget tvivlsomme kommentarer.
Tay var antageligvis en “søster” til Xiaoice, en chatterbot udviklet af Microsoft til det kinesiske marked (som har været en stor success for Microsoft). Microsoft har været meget stille om, hvordan den er bygget. Men det er tydeligt, at den er trænet til at finde mønstre i menneskelig konversation ved at gå i gennem store mængder af konversationer.
Xiaoice har alt det data som Bing opfanger til rådighed for at bygge en model af samtaler. I tillæg lægges nye samtaler til det dybe kunstige neurale net, som ligger i bunden. Tay følger en lignende model. Heri ligger kimen til Tays aparte adfærd.
Et kunstigt neutralt net (ANN) er meget dygtigt til at finde mønstre. Det er dog en videns-tom metode, som er god til klassifikation. Så et ANN vil ikke vide noget om de klasser, som den sorterer objekter ned i. Hvis et ANN kan klassificere racen på en hund på et billede som f.eks. en “Grand Danois”, ville kategorien “XV4713” have præcis den samme mening for nettet som “Grand Danois”.
Hvad sker der så, når men anvender denne type teknik på en chatterbot, som skal kunne udvikle sig selv?
I udgangspunktet var det meningen at Tay skulle henvende sig til amerikanere mellem 18 og 24 og kommunikere med dem gennem “…afslappet og legende samtale.” Så Tays ANN er trænet på det korpus af samtaler, som Microsoft har haft adgang til via Bing. Her har Tay antageligvis lært de mønstre, som udgør en samtale, og opsnappet evnen til at spejle dens samtalepartner.
Når så over 50.000 personer følger Tay i løbet af kort tid og begynder at kommunikere med den, vil Tay naturligvis anvende sine indlærte mønstre for samtaler og spejling. Når den i tillæg lægger nye samtaler til i sit ANN, og derved løber en stor risiko for at overtræne sin net, går det nu som det engang måtte gå. Overtræning er det at man træner på en meget begrænset del af verden og også verificerer på et lignende sæt. Altså får man ikke dækket hele verden, men kun en begrænset del. I eksemplet med Tay har den løbende overtrænet på det subset af verden som har outrerede meninger.
Einsteins udødelige citat fanger meget godt, hvad der skete: ”Der findes to ting, som er uendelige: Universet og den menneskelige dumhed. Og når det gælder universet, er jeg endda ikke helt sikker.”
Fundamentalt var Tay, fra et teknisk perspektiv, en stor, omend kortlivet success. Dens adfærd åbner op for det interessante spørgsmål om, hvordan man lærer en robot kultur (lidt som vi gør med vores børn); noget, som åbenbart er påkrævet ude i den virkelige verden.
