Rapport over killer robots zonder nuance
- Fragmenten
- Rapport over killer robots zonder nuance
Killer robots: machines die zelfstandig de beslissing kunnen nemen dat ze mensen doden. Het is een angstaanjagend scenario. Afgelopen week publiceerde vredesorganisatie Pax een rapport waarin volgens dr Dieuwertje Kuijpers de nuances ver te zoeken zijn. "Er is niet eens een heldere definitie van autonome wapens", zegt ze in dr Kelder en Co.
In het rapport van Pax wordt gewaarschuwd voor grote tech-bedrijven die werken aan militaire middelen. Die bedrijven zouden daarmee op een 'zeer zorgwekkende', wijze bijdragen aan het maken van autonome wapens: robots die zelfstandig kunnen beslissen om mensen te doden of om bombardementen uit te voeren.
"Een mijn zou je een autonoom wapen kunnen noemen, die ontploft vanzelf als er druk op komt", zegt dr Kuijpers. Het gaat om de vraag of er een menselijke beslissing aan die dodelijke actie vooraf gaat. Bij drones met bommen is het nog altijd zo dat een mens die op afstand bestuurt en ook een mens beslist of de bommen worden afgevuurd. Het is dan de vraag of dat autonome wapens zijn.
In het rapport wordt daar niet bij stilgestaan. Veel militaire middelen die niet zelfstandig kunnen handelen, worden in het rapport wel tot autonome wapens gerekend.
"Maar de vraag is natuurlijk of die grote tech-bedrijven (Google, Facebook, Amazon) al hun kracht en geld gaan inzetten om dit soort autonome wapens te ontwikkelen. Dat is de macht in zichzelf", merkt dr Kelder op.
"De intellectuele capaciteit die gegoten wordt in het ontwikkelen van die kunstmatige intelligentie, zit in die civiele markt", zegt dr Kuijpers. De technologie voor duurzame windmolens wordt ook gebruikt in thermische camera’s van Defensie.
"Het Pentagon of het Nederlandse ministerie van Defensie kijken naar die bedrijven voor de mogelijkheden", zegt Kuijpers. Maar er zijn internationale afspraken gemaakt over hoe je civiele ontwikkelingen mag gebruiken voor militaire doeleinden. Dat wiel hoeven we niet opnieuw uit te vinden.
Wel moeten we een discussie voeren over hoe we die systemen een moreel bewustzijn kunnen geven. Hoe ga je ethiek programmeren? En wat gebeurt er als kunstmatige intelligentie slimmer wordt dan de mens? Die discussie moet gevoerd worden, meent dr Kuijpers. “Het helpt dan niet om paniek te gaan zaaien met hysterische berichten over killer robots.”
Video niet beschikbaar