Bing

Kunstmatige intelligentie moet nauwlettend in de gaten worden gehouden: Brad Smith van Microsoft

Inhoudsopgave:

Anonim

Het klinkt voor velen misschien als een grap, maar tot niet zo lang geleden werd de angst voor kunstmatige intelligentie door gezien als een bedreiging voor de mensheid was een vrij wijdverbreide fobie. Sterker nog, we zagen het al in deze talk in onze aflevering één van het tweede seizoen van Captcha waarin we zagen dat het een ongegronde angst is.

Het lijkt er echter op dat niet iedereen het zo ziet en velen denken dat Skynet of Matrix en de machinerevolutie voor de deur staan. Kunstmatige intelligentie kan een bedreiging vormen en daarom heeft de president van Microsoft, Brad Smith, op de GeekWire Summit 2019 zijn visie gegeven, enigszins pessimistisch hierover

Is kunstmatige intelligentie een bedreiging?

Smith gaf de reden voor dit enigszins negatieve beeld, de vliegtuigcrash die plaatsvond in het Puget Strait-gebied, waarbij een vliegtuig met passagiers en bemanning een ongeluk kreeg door een automatisch systeem dat ze niet konden uitschakelen vanuit de cabine toen het zover was.

De software en het uitgangspunt ervan waren schitterend, aangezien het verantwoordelijk is voor het detecteren van een overmaat in de helling van het vliegtuig als het te hoog is, het verlagen van de neus en het verminderen van de hoogte dienovereenkomstig. Het probleem is dat in dit geval de metingen mislukten en het cabinepersoneel het systeem niet kon deactiveren met als gevolg een tragisch einde.

"

Deze situatie is het excuus geweest voor Brad Smith, die rechtvaardigt dat technologische ontwikkeling prijzenswaardig is, maar altijd gecontroleerd moet wordenEn in het geval van kunstmatige intelligentie en de systemen die daarin zijn verwerkt, moeten deze een soort paniek- of noodknop hebben waarmee ze kunnen worden uitgeschakeld."

En voor de goede orde, het is niet het enige geval. Op een meer aards niveau en veel dichter bij de overgrote meerderheid van de gebruikers, hebben we gevallen van mensen die worden overreden door door zelfrijdende auto's.

Het gaat erom het primaat van menselijke beslissingen op bepaalde momenten te garanderen en in bepaalde omstandigheden waarin de besluitvorming van een systeem gebaseerd over kunstmatige intelligentie is niet zo adequaat als zou moeten.

Brad Smith hield toen niet op met zijn kritiek op het gebruik van kunstmatige intelligentie zoals we die nu kennen. De hele samenleving en de hele industrie moeten zich bewust worden van de weg die ze inslaan:

"

We hebben gezien hoe er drones en oorlogsmachines zijn>Het is slechts een deel van het probleem waardoor Smith bevestigt dat het mogelijke risico van een ongecontroleerde ontwikkeling van AI moet worden bestudeerd en automatisch leren (machine learning). We hebben zelfs al een soortgelijke mening gezien van een Google-technicus."

Het is een lastig probleem. De ontwikkeling van een AI die op een gegeven moment niet eens zelf de controlesystemen kon aansturen opgelegd door mensen. De kruising van ideeën en theorieën ligt op tafel en zal veel stof tot discussie opleveren.

Bron | GeekWire

Bing

Bewerkers keuze

Back to top button