Dilemma in 2020: jouw zelfrijdende auto probeert een ongeluk te voorkomen. Er zijn twee opties: 1) de auto stuurt richting een schoolbus vol met kinderen. 2) de auto stuurt het ravijn in (met jou erbij). In optie 1 is er een kans op veel doden en gewonden, in optie 2 ben jij het enige slachtoffer. Logisch gezien zou de auto altijd voor de optie met de minste slachtoffers moeten gaan. Optie 2 dus. Maarja… Wil jij dat ook? Gary Marcus schreef over het dilemma in de New Yorker.
Ander dilemma. Google neemt Boston Dynamics over. Bedrijf werkt samen met het Amerikaanse leger in het bouwen van robots voor reddingsoperaties. Technisch gezien gaat mijn hart sneller kloppen. Whow! Kunnen we dit al? Gaaf! Om zo mensen te kunnen redden. Maarja: klein kunstje om het ding ook een geweer in de handen te geven. Kan dat ook? Technisch wel? Maar moreel gezien?
Kunstmatige intelligentie biedt heel veel kansen, maar in de ontwikkeling ervan zien we vaak de morele dilemma’s over het hoofd. Volgens de Huffington Post en de blog The Information is Google is gestart met een ‘Safety & Ethics Board’ die moet toezien op de ontwikkeling van slimme systemen.
De zoekgigant neemt in rap tempo allerlei bedrijven over die robots, computers of systemen bouwen die slimmer & sneller zijn dan de mens zelf. En ook dat brengt ethische vragen mee. Is het eigenlijk wel verstandig om niet meer de slimste soort op aarde te zijn? De baas van DeepMind (ook door Google overgenomen) zegt: “het grootste risico op de uitroeiing van de mens, is kunstmatige intelligentie“. Vergeet een nucleaire winter, hongersnood, opwarming van de aarde: als je niet meer de slimste bent, blijf je uiteindelijk ook niet meer de baas.
Naarmate de ontwikkeling van technologie sneller en sneller gaat, moeten we ook nadenken over de ethische kanten. Of zoals filosoof Colin Allen, co-auteur van het boek” Moral Machines: Teaching Robots Right from Wrong” zegt: “We willen niet dat we op een punt komen waar we zeggen: hadden we het hier 20 jaar geleden maar over gehad…”.