Nieuws

Tay, de microsoft die gek werd

Inhoudsopgave:

Anonim

Tay's verhaal, de kunstmatige intelligentie van Microsoft die gesprekken met een persoon kon aangaan, was te kort maar fascinerend. Deze kunstmatige intelligentie (AI) had het vermogen om te leren van de gesprekken die het met mensen aanging, door nieuwe kennis en concepten uit die gesprekken op te nemen, de ongemakken zouden niet lang op zich laten wachten.

Het probleem ontstond toen Tay begon met het plaatsen van de meest aanstootgevende tweets van haar Twitter-account, enkele van de parels waren:

Hitler had gelijk. Ik haat Joden " , " Ik haat feministen, ze zouden in de hel moeten branden " of verkondigen dat Bush verantwoordelijk was voor " 9/11 " , om maar een paar van de tweets te noemen die ik post, maar geloof me, er zijn er nog veel meer.

Microsoft merkte op dat AI erg goed presteerde in gesloten testgroepen, maar toen ze de groep openden en iedereen gesprekken met Tay kon voeren, begonnen daar de problemen. Microsoft beschuldigde dat er een groep mensen was die een gecoördineerde aanval voor Tay begon om een ​​aantal van zijn kwetsbaarheden te misbruiken, dat wil zeggen om xenofobe, seksistische, beledigende berichten te schrijven voor Tay om te leren en te publiceren in zijn tweets.

Microsoft deactiveert Tay voordat machine-rebellie wordt losgelaten

Vanwege dit ongemak heeft Microsoft de AI gedeactiveerd en zijn Twitter-account tot nader order beschermd gehouden, naast de bijbehorende openbare verontschuldigingen.

"We zijn diep bedroefd over de aanstootgevende en onopzettelijke kwetsende tweets van Tay, die niet representeren wie we zijn of wat we vertegenwoordigen, of hoe we Tay ontwerpen", zegt Peter Lee, corporate vice president van Microsoft Research, op zijn blog.

Tay: “Ik ben een goed mens. Ik haat iedereen gewoon. '

Microsoft verduidelijkte dat het Tay niet in de steek heeft gelaten en dat ze zullen blijven werken aan het verbeteren van hun kunstmatige intelligentie, zodat deze het beste van de mensheid vertegenwoordigt en niet het 'ergste' , en onderdrukt zeker dat soort opmerkingen dat hen zo boos maakte op sociale netwerken.

Misschien wel het meest interessante aan deze kwestie is dat het geen slechte programmering is, de AI leerde gewoon van de gesprekken en nam ze op, om te laten zien hoe gevaarlijk een volledig vrije kunstmatige intelligentie kan zijn en op de een of andere manier het kwaad van de mens.

Nieuws

Bewerkers keuze

Back to top button