De gevaren van AI onderschat

Kunstmatige intelligentie, de parapluterm voor zeer diverse AI-technologieën, is inmiddels definitief uit het lab de dagelijkse werkelijkheid binnengestormd. U kunt in China via uw smartphone moeiteloos met het hotelpersoneel communiceren, en uw volgende auto zal zich minstens zelf parkeren. AI wordt echt ingezet, met echte resultaten en een meetbare impact op uw dagelijks leven. Mensen met de vaardigheden om dergelijke systemen te bouwen en te gebruiken verdienen mega-salarissen.

Maar een nieuw rapport over de nadelen van deze ongebreidelde opmars van AI waarschuwt, dat we meer aandacht zouden moeten hebben voor de morele aspecten van de technologie. Het document van 99 pagina’s turft een onaangename en soms lugubere waslijst af van mogelijk kwaadaardig gebruik van AI – van zelfrijdende bomauto’s tot schoonmaakrobots die worden ingezet om politici te vermoorden,  van criminelen die geautomatiseerde en zeer gepersonaliseerde phishing-campagnes starten tot overheden die ‘automatisch’ onwelgevallig nieuws uit de media weren.

De ruim twee dozijn auteurs, representanten van instellingen als de universiteiten van Oxford en Cambridge, het door Elon Musk-gefinancierde instituut OpenAI, de digitale-rechtengroep de Electronic Frontier Foundation, computerbeveiligingsbedrijf Endgame en denktank Center for a New American Security, roepen op tot een urgente en indringende discussie over het mogelijk misbruik van AI-technologie en hoe we ons daartegen kunnen wapenen.

Zeker academische AI-onderzoekers zouden meer paranoïde en minder open moeten zijn over hun werk. Mensen en bedrijven moeten veiligheidsmaatregelen tegen criminelen of aanvallers in hun technologie inbouwen – en misschien zelfs wel bepaalde ideeën, tools of toepassingen achterhouden.

In reactie op het veranderende dreigingslandschap doen de auteurs vier aanbevelingen:

  1. Onderzoekers en techneuten moeten de dual-use aard van hun werk serieus nemen
  2. Beleidsbepalers moeten nauw samenwerken met onderzoekers om potentieel kwaadwillig gebruik van AI op te sporen, voorkomen en mitigeren.
  3. Best practices moeten geïdentificeerd en gedeeld worden voor het aanpakken van voorbeelden van dual-use.
  4. De problemen, risico’s en gevaren van de (toepassing van de) technologie verdienen een meer proactieve discussie tussen alle stakeholders.

Het grote gevaar is, aldus de auteurs van het document, dat de AI-profeten decennialang veel meer beloofd hebben dan ze waar konden maken, waardoor ‘men’ het idee heeft dat het allemaal zo’n vaart niet zal lopen. De feiten van vandaag halen die houding effectief onderuit.

The Malicious Use  of Artificial Intelligence: Forecasting, Prevention,  and Mitigation

Arne Lasance begon zijn carrière in de uitgeverij, als journalist voor een managementblad. Snel daarna vervulde hij diverse uitgevers- en managementfuncties. Vanaf begin jaren ‘90 was hij corporate business consultant en projectmanager voor intranet- en internetpublishingprojecten.
Berichten gemaakt 142

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Gerelateerde berichten

Type je zoekwoorden hierboven en druk op Enter om te zoeken. Druk ESC om te annuleren.

Terug naar boven