Microsoft Twitter-Bot FAIL

Hi Leute!

Microsoft hat vor kurzem ein Experiment durchgeführt, bei dem ein lernfähiger Twitter-Bot “Tay” anhand von Tweets anderer User, den Umgang mit diesen lernen sollte.
Nach kurzer Zeit begann “Tay” rassistische und sexistische Kommentare zu posten, sowie für Donald Trump zu werben.

https://www.youtube.com/watch?v=HyYFrWSiYxo
https://www.youtube.com/watch?v=L8cNQaceiqY

Ich persönlich finde diese Story wahnsinnig witzig :laughing: , jedoch sehe ich diese auch als Indikator dafür, dass es im Netz viel Hass gibt, selbst im Anbetracht der Tatsache, dass dieser Bot oft von Trolls “gefüttert” wurde.

LG
TechBoy96

ist sie auch. ein rassistisch sexistischer Trump-supporter Bot. krass.

Auch wenn der Post schon älter ist, zeigt er doch, dass sich nicht nur lernfähige Bots, sondern leider auch (zu) viele Menschen von den wahnwitzigen oder rassistischen Tweets oder Beiträgen anderer leiten lassen.

Das die Forschung sich für Schwarmintelligenz bei Robotern interessiert, ist einerseits cool, aber man stelle sich bloß mal eine Horde im Rahmen ihrer Möglichkeiten randalierender smarter Haushaltsgeräte vor, die - angestachelt durch den Output der Twitterhose rebelliert oder plötzlich beim Marmorkuchenbacken fordert:

if kakaoPulver == schwarz {
rassenTrennung = true;
drawString(“Auslaender raus”

Ups, da sollte es eig. noch weitergehen:

drawString(“Auslaender raus”, 1, 1);
mixerMotor.off();
}