Key takeaways
- Het gebruik van AI door Israël voor het selecteren van doelen in zijn conflicten met Gaza en Iran baart ernstige zorgen over het gebrek aan menselijk toezicht.
- Onderzoeken hebben aangetoond dat Israël gebruikmaakt van “Habsora”, een AI-systeem dat in staat is om snel doelen voor luchtaanvallen te selecteren.
- Versoepelde regels voor het gebruik van geweld in combinatie met AI-ondersteunde luchtaanvallen hebben tragisch genoeg geleid tot een gebrek aan aandacht voor burgerslachtoffers.
Het recente gebruik van AI door Israël in zijn conflict met Iran heeft bij deskundigen zorgen gewekt over het gebrek aan menselijk toezicht bij het selecteren van doelen. Na het gebruik van AI om bombardementsdoelen in Gaza te kiezen, trekken analisten parallellen tussen de twee conflicten en benadrukken ze de potentiële gevaren van autonome wapensystemen. Dat schrijft Asian Times.
Verkeerde identificatie van doelen
Een analist wees op de bombardementen op het “Police Park” in Teheran als een voorbeeld van verkeerde identificatie van doelen door AI. Het park, dat niets te maken heeft met wetshandhaving, werd waarschijnlijk geselecteerd vanwege de associatie met overheidsgebouwen, wat aantoont dat er geen menselijke tussenkomst was om de legitimiteit van het doel te verifiëren.
Die benadering, door een techjournalist “dodelijke bèta” genoemd, beschouwt het conflict in Gaza als een prototype en het conflict in Iran als de lancering van een potentieel gevaarlijk product. Die acties roepen ethische vragen op over het gebruik van mensenlevens als gegevenspunten bij de ontwikkeling van dodelijke technologie.
Eerdere onderzoeken hebben aangetoond dat Israël gebruikmaakt van “Habsora”, een AI-systeem dat in staat is om snel doelen voor luchtaanvallen te selecteren. Critici stellen dat die technologie, in combinatie met versoepelde regels voor het gebruik van geweld tijdens het conflict in Gaza, heeft geleid tot een gebrek aan aandacht voor burgerslachtoffers.
Versoepelde regels voor het gebruik van geweld
Het leger van Israël heeft officieren ruime bevoegdheden gegeven om luchtaanvallen te bevelen, waarbij zelfs een aanzienlijk risico voor burgerslachtoffers werd toegestaan. In sommige gevallen keurden hoge commandanten aanvallen goed die mogelijk honderden burgers konden doden, waarbij hoogwaardige doelen voorrang kregen boven de veiligheid van burgers.
De verwoestende gevolgen van door AI ondersteunde luchtaanvallen waren duidelijk zichtbaar bij de bombardementen op het vluchtelingenkamp Jabalia, waarbij talrijke burgers, waaronder kinderen, omkwamen.
AI in Amerikaanse operaties
Het Amerikaanse leger maakt ook gebruik van geavanceerde AI bij zijn operaties in Iran, met behulp van het Maven Smart System van Palantir, waarin het Claude AI-taalmodel van Anthropic is geïntegreerd.
Deskundigen benadrukken de noodzaak van menselijk toezicht bij de toepassing van AI in oorlogsvoering en wijzen op het belang van het controleren van de output van deze systemen wanneer er mensenlevens op het spel staan.
Internationale regelgeving
De mogelijkheid dat AI het aantal burgerslachtoffers verergert, is een groeiende zorg, zoals blijkt uit berichten over bloedbaden en dubbele aanvallen in het Iraanse conflict. Hoewel de precieze rol van AI in deze incidenten onduidelijk blijft, zijn de ethische implicaties van het gebruik van autonome wapensystemen onmiskenbaar.
De lopende discussies op een door de VN gesponsorde conferentie in Genève zijn gericht op het aanpakken van de risico’s van killerrobots en het vaststellen van internationale regelgeving voor de ontwikkeling en inzet ervan. Ondanks beweringen dat AI het aantal burgerslachtoffers kan verminderen, stellen deskundigen dat er geen bewijs is om deze bewering te staven en dat het tegenovergestelde waar zou kunnen zijn. (fc)
Volg Business AM ook op Google Nieuws
Wil je toegang tot alle artikelen, geniet tijdelijk van onze promo en abonneer je hier!

