Hey @Eljakim

Zie hieronder de vragen van je interview en mijn antwoorden. Als er iets onduidelijk is of je verdere vragen hebt moet je die vooral stellen!

Groetjes,
Jip

Zou u zichzelf kort willen voorstellen en vertellen waar uw baan mee te maken heeft?
Hallo! Ik ben Jip Rietveld. Op dit moment heb ik nog geen baan maar ben ik nog master student Data Science and Technology aan de TU Delft. In mijn bachelor en in mijn master heb ik al meerder vakken gevolgd over het onderwerp Artificial Intelligence Techniques. Het is een groots onderwerp met veel verschillende facetten. Daar heb ik ook het nodige over geleerd. Bij AI komt er veel kijken, kansrekening en statistiek, modelleren, optimaliseren, communicatie, en, zoals jullie al noemen, beslissingen maken. Al deze factoren worden besproken en geleerd bij mijn studie.

Is het volgens u mogelijk dat Artificial Intelligence compleet objectieve keuzes zou kunnen maken?
Ik vind dit een leuke vraag. Ik denk namelijk dat Artificial Intelligence alleen maar objectieve keuzes proberen te maken. Dat is het mooie aan computer systemen. Een computer doet precies wat jij vertelt dat die moet doen. Jij kan heel direct programmeren, bijvoorbeeld: als het water hoger staat dan 2.3 meter, sluit de kering. Dat is een hele concrete objectieve keuze. Een menselijke werker zou misschien bij 2.1 meter al de kering sluiten omdat die weet dat zijn kinderen in het gevaar gebied zijn op dit moment. Dus op die manier kan Artificial Intelligence zeker compleet objectieve keuzes maken.

MAAR. Daar komt zeker een grote maar bij kijken. Dat is namelijk dat lang niet alle beslissingen objectief gemodelleerd worden, of objectief gemodelleerd kunnen worden. De voorbeeld van de kering is een hele simpele implementatie van AI die het niet moeilijk heeft te kunnen meten hoe hoog het water staat. Daardoor kan een mens objectief een waarde berekenen wanneer de kering dicht zou moeten. Dat wordt veel ingewikkelder als we kijken naar AI toegepast op veel grotere beslissingen. Op het moment dat een zelf-rijdende auto in een situatie komt heeft die niet 100% van de informatie. Zit er een baby in de babywagen van die vrouw of is die leeg? Hoe erg zijn mijn wielen gesleten? Dat soort informatie is dus uberhaupt moeilijk te geven aan een robot. Daarnaast zijn de gevolgen van die informatie voor mensen ook lang niet objectief. Bij een onderwerp als leven of dood zijn er al duizenden jaren discussies tussen filosofen, daardoor kun je als programmeur lastig de AI vragen om een objectieve beslissing.

Kortom, ik denk dat er zeker situaties zijn waarin Artificial Ingelligence compleet objectieve keuzes kan maken. Maar er zijn ook heel veel waarin dat heel moeilijk is.

Vindt u dat Artificial Intelligence keuzes omtrent leven en dood mogen maken? En zo ja, kunnen ze dit dan beter dan mensen.
Dit is een hele lastige vraag. Ik denk dat ik voor het veilige antwoord kies van: "Het licht eraan". Ik denk wel degelijk dat er situaties zijn waarin Artificial Ingelligence kan beslissen over leven of dood. Op dit moment zijn er vele verkeers slachtoffers vanwege chauffeurs die vermoeid zijn, dronken zijn of niet aan het opletten zijn. Als AI onze autos zou besturen kun je nooit meer van dat soort menselijke fouten krijgen. Het gevolg daarvan kan wel zijn dat de AI in de auto af en toe een beslissing moet maken om een obstakel te ontwijken om of de bestuurder of het oude vrouwtje (links van het obstakel) of de man met een baby (rechts van het obstakel) te verwonden. Op zo'n moment moet AI een beslissing maken en uiten wij als mensheid dat wij het in orde vinden dat een machine die beslissing maakt.

Het lastige aan AI de mogelijkheid geven tot een beslissing als hierboven zijn de gevolgen van deze beslissingen. Nu rust ons rechtsysteem op het feit dat de verantwoordelijke van een incident terecht kan staan. Maar dat werkt niet zo goed bij een zelf rijdende auto. Stuur je de auto naar de rechter? De programmeur van die precieze regel code? Degene die het obstakel op de weg heeft geplaatst? Dit zijn lastige ethische vragen die wij als eerst moeten overwegen voordat wij AI de verantwoordelijkheid geven over dit soort keuzes. Ik denk dat het daarop neer gaat komen of wij als mensheid deze vragen kunnen beantwoorden op een manier dat iedereen er mee eens is (hoor je al hoe moeilijk dat zal zijn). Als we die vragen kunnen beantwoorden dan kunnen we AI beslissingen omtrent leven of dood maken, daarvoor zou ik dus wat terug houdender zijn.

Denkt u dat over een paar jaar AI echt als een middel voor moeilijke keuzes gebruikt gaat worden en waarom?
Ha Eljakim, heel grappig dat je dit vraagt, ik ben as we speak bezig met het implementeren van een robot die kan helpen bij het onderhandelen van een beslissing. De robot werkt op verschillende keuzes waarin elke verschillende mogelijkheid een bepaalde waarde heeft voor het profijt van de robot. Zo kan de robot bedenken op wat voor punten die zou willen inleveren of niet. Tegenover mijn robot zit een andere robot met andere waardes voor de verschillende mogelijkheden. De ene bied eerst en dan mogen allebei de robots los, omstebeurt krijgen zij de kans om een bod te maken en als ze binnen 60 keer bieden geen beslissing maken verliezen ze allebei.

Met een implementatie als dit komen er wel veel haken en ogen kijken. Zo vinden mensen het moeilijk om precies te kunnen zeggen wat voor waarde zij hechten aan een bepaalde mogelijkheid. Ook is het misschien onmogelijk voor een mens om dat te doen voor elke mogelijkheid. Daarnaast zijn sommige beslissingen zo groot dat het heel lastig is om deze te modelleren in een computer. Door al die redenen denk ik niet dat AI de volledige beslissing moet gaan maken voor mensen. Wel denk ik dat AI, ook nu al, goed genoeg is om mensen bij te staan bij het maken van moeilijke keuzes.

Als je hier meer over wil lezen dan moet je negotiation agents maar googlen.