Beste @blablablabla,

Mijn naam is Tadjiro Velzel en ik vertegenwoordig het PWS Team van de TU Delft, namens de faculteit Elektrotechniek, wiskunde en informatica. Zowel binnen als buiten het curriculum heb ik me bezig gehouden met projecten over AI-based voorspelling van psychologische stress op basis van real-time biometrische gegevens, inschatting van het risico dat een persoon vatbaar is of al lijdt aan diabetes en het diagnoseren van arrythmia op basis van electrocardiografische gegevens.
Ik verwacht dat AI de komende jaren dezelfde koers aanhoudt, waarbij AI wordt gebruikt als assistentie voor menselijke taken, voor het verwerken van grote hoeveelheden data en hier en daar voor het innemen of vervangen van banen.

In het dagelijks leven zien we dat een aantal banen wordt ingenomen door algoritmes, zoals de zelf-scan optie bij de albert heijn of het QR-code bestellen bij een restaurant. Vervanging van banen door kunstmatige intelligentie die leert en zich aanpast is echter nog niet veelvoorkomend. De beloofde vorderingen op gebied van zelfrijdende auto's en zorgrobots is erg langzaam. Het is waarschijnlijk dat dit soort complexe taken, waarbij er veel op het spel staat en een complex systeem aan keuzemakend vermogen een vereiste is, uiteindelijk kunnen worden ingevuld door kunstmatige intelligentie. Echter is een tijdlijn voor deze vervanging nog niet in zicht.

AI leert via datasets, waarin het netwerk een reproductie geeft zelfsoortig aan de output die bij een specifieke input in de dataset geleverd is. Zo kan een AI die getraind is met een dataset vol met schoenen een nieuw paar Nikes ontwerpen, maar niet een taart bakken. Op dezelfde manier kunnen we een AI programmeren om, op basis van een serie regels en situaties, leren om morele keuzes te maken. Op basis van de ethiek van Immanuel Kant en Epicurus kan een AI ontwikkeld worden om volgens hun regels te handelen. We hebben echter geen indicatie of het mogelijk is om een AI een gevoel hierbij te geven. De AI zal het zelfrijdend algoritme mogelijk aanraden om naar links uit te wijken, waar de oude vrouw loopt. Als de auto echter naar rechts uitwijkt, waar het jonge kind loopt, zal de AI zich daar niet slecht over voelen.
6c2ee112-68c5-409b-b361-6c870714e5eb-image.png

AI vormt in onze maatschappij al een gevaar. Denk maar eens aan de duizenden families die door AI tijdens de toeslagenaffaire onjuist gemarkeerd werden als fraudeur. Deze families verloren hun kinderen, huizen, banen, families en hebben hierdoor in sommige gevallen gekozen om hun eigen leven te nemen. Als AI op nationale schaal wordt ingezet, zoals in dit geval, is de kans dat er iets misgaat erg groot.
Theoretische gevaren waarin AI kiest om een kwaadaardig doel uit te voeren zijn onwaarschijnlijk, sinds we geen indicatie hebben dat het mogelijk is voor een AI om een gevoel te hebben. We hebben geen datasets waarin we een gevoel in software kunnen opslaan, dus kunnen we deze mogelijkheid ook niet aan een neuraal netwerk leren.
Over het algemeen is AI een technologie die alleen gevaarlijke situaties kan opbrengen als je het in een machtige situatie plaatst.

Ik hoop dat jullie hiermee verder kunnen,
Tadjiro Velzel