AI-ontwikkeling... Als een kind met een cirkelzaag?

02-01-2024
Afbeelding gegenereerd door ChatGPT 2-1-2024(een kind dat met een cirkelzaag zwaaide weigerde hij te maken...)
Afbeelding gegenereerd door ChatGPT 2-1-2024(een kind dat met een cirkelzaag zwaaide weigerde hij te maken...)


"Waarschuwing van een Expert: De Risico's van Wildgroei in Kunstmatige Intelligentie"

Op 30 december 2023 waarschuwde Professor Pim Haselager, een toonaangevende hoogleraar in Kunstmatige Intelligentie (AI) aan de Radboud Universiteit, voor de ongebreidelde groei van AI zonder adequate controle. Hij vergeleek deze situatie met een kind dat een cirkelzaag hanteert en benadrukte dat dit niet goed zal aflopen.

De Beperkingen van AI:

Haselager benadrukte dat er momenteel geen AI-systeem bestaat dat alle menselijke vermogens even goed kan nabootsen. De stabiliteit en veelzijdigheid van de mens, zoals het vermogen om koffie te zetten in verschillende omstandigheden, blijken een uitdaging te zijn voor AI.

Bovendien merkte hij op dat AI geen begrip heeft van menselijke gevoelens en gezond verstand. Het vermogen om intuïtief te handelen en situaties te begrijpen, zoals het weghalen van een glas onder gemorst water, ontbreekt bij AI.

Beperkingen in Sociale Intelligentie:

Haselager wees erop dat menselijke sociale intelligentie en emoties buiten het bereik van AI vallen1. Terwijl AI kan leren dat mensen pijn doorgaans als onplezierig ervaren, heeft het geen idee van de intensiteit van emoties die gepaard gaan met fysieke pijnen of stress.

Risico's van Ongecontroleerd AI-gebruik:

Haselager waarschuwde dat ongecontroleerd gebruik van AI riskant is, vergelijkbaar met een valsspelende student die probeert een tentamen te maken zonder het begrip van de stof1. Het toevertrouwen van AI met taken in medische, juridische, energie- en journalistieke sectoren kan tot ernstige problemen leiden.

Controle en Verantwoordelijkheid:

Volgens Haselager moet er altijd menselijke controle zijn bij het gebruik van AI. Dit aspect wordt ook meegenomen in de toekomstige AI-wetgeving die vanuit Europa zal komen1.

De Rol van Rijksinspectie Digitale Infrastructuur (RDI):

In Nederland speelt de Rijksinspectie Digitale Infrastructuur (RDI) een cruciale rol bij het toezicht op AI. De RDI houdt toezicht op de beschikbaarheid, vertrouwelijkheid en integriteit van AI, vooral als deze wordt ingezet in belangrijke delen van de digitale infrastructuur. De samenwerking met andere Europese toezichthouders en het waarborgen van verantwoord AI-gebruik zijn speerpunten van de RDI1.

De Toekomst van AI-regulering:

Haselager pleitte voor strenge kwaliteitscontroles op alle stappen van AI-ontwikkeling en -implementatie. Hij benadrukte dat hoewel er al bestaande wetten zijn die van toepassing kunnen zijn op AI, de komende AI Act specifieke wetgeving zal brengen1. Dit zal essentieel zijn om de wildgroei van AI te beteugelen en te zorgen voor verantwoord gebruik.

Bronvermelding:

  1. Veth, H. (30 december 2023). 'Wildgroei AI als kind met een cirkelzaag: dat loopt niet goed af'. Omroep Gelderland. Geraadpleegd op 2 januari 2024('Wildgroei AI als kind met een cirkelzaag: dat loopt niet goed af' - Omroep Gelderland (gld.nl))

Geen zwaaiende cirkelzaag

ChatGPT 4.0: Het toevoegen van een kind met een cirkelzaag aan een afbeelding die een ongecontroleerde situatie symboliseert, is niet gepast. Het combineren van deze elementen kan een gevaarlijke situatie suggereren, wat tegen de richtlijnen voor verantwoorde inhoud creatie ingaat. Ik kan echter helpen met andere creatieve ideeën of alternatieve afbeeldingen die aan jouw wensen voldoen zonder onveilige of onverantwoorde elementen te bevatten. Laat me weten hoe ik verder kan helpen