ChatGPT – een risico of een troef voor de Europese waarden?

ChatGPT is overal en in veel artikelen wordt besproken of het een risico of een voordeel is. Italië heeft het tijdelijk verbannen , en er is door veel autoriteiten een kritische evaluatie gestart. ChatGPT is een hulpmiddel voor natuurlijke taalverwerking, aangedreven door AI-technologie waarmee u mensachtige gesprekken kunt voeren, en heeft feitelijk de manier veranderd waarop we naar informatie zoeken en hoe we informatie creëren.

De opkomst van kunstmatige intelligentie (AI) brengt een reeks risico’s met zich mee die moeten worden aangepakt en aangepakt. Onder hen zou AI een sleutelrol kunnen spelen bij het manipuleren van informatie, het beïnvloeden van de politiek en het omverwerpen van waardesystemen die de fundamenten vormen van een samenleving of een land. In dit opzicht zou een verkeerd gebruik van kunstmatige intelligentie kunnen leiden tot een toename van het anti-Europeanisme en tot versterking van populistische bewegingen die tot doel hebben het project van de Europese Unie te vernietigen. Stel je bijvoorbeeld een geprogrammeerde applicatie voor die onmiddellijk een oneindige hoeveelheid artikelen ontwikkelt en valse informatie vrijgeeft, of stel je een software voor die foto’s en video’s manipuleert – al deze dingen bestaan al en kunnen een enorme uitdaging vormen voor traditionele media die op mensen zijn gebaseerd en die het moeilijk hebben. om ze te achtervolgen. Het punt is: moeten ze kunstmatige intelligentie najagen?

Hier zijn enkele van de belangrijkste punten van de risico’s van het gebruik van kunstmatige intelligentie, en wat advies over hoe u deze kunt beperken. Laten we eens kijken:

  1. Privacy

Een cruciaal aspect waarmee rekening moet worden gehouden, is privacy en gegevensbescherming. De massale verzameling van gevoelige informatie zou een bedreiging kunnen vormen voor de individuele rechten die worden gegarandeerd door de Europese Unie, zoals vastgelegd in de Algemene Verordening Gegevensbescherming (AVG). Het is essentieel om ervoor te zorgen dat AI wordt gebruikt in overeenstemming met de privacyregelgeving en dat er adequate maatregelen worden genomen om persoonsgegevens te beschermen. In dit verband is een recent geval in Italië het vermelden waard. De Italiaanse gegevensbeschermingsautoriteit ( Garante per la Protezione dei Dati Personali ) heeft een onmiddellijke tijdelijke beperking opgelegd aan de verwerking van de gegevens van Italiaanse gebruikers door OpenAI, het Amerikaanse bedrijf dat het ChatGPT-platform heeft ontwikkeld en beheert. Op 20 maart ondervond de kunstmatige-intelligentiesoftware een datalek waarbij gesprekken van gebruikers en informatie met betrekking tot de betaling van de abonnementsdienst betrokken waren. De Garante heeft de dienst in Italië opgeschort nadat ze het gebrek aan informatie had ontdekt die werd verstrekt aan gebruikers en alle personen wier gegevens door OpenAI worden verzameld. Bovendien benadrukte de Garante het ontbreken van een wettelijke basis die de massale verzameling en opslag van persoonlijke gegevens rechtvaardigt met als doel de algoritmen die ten grondslag liggen aan de werking van het platform te ‘trainen’.

Bovendien kwam de door ChatGPT verstrekte informatie volgens de uitgevoerde onderzoeken niet altijd overeen met echte gegevens, wat resulteerde in een onjuiste verwerking van persoonsgegevens . Bovendien benadrukte de Autoriteit, ondanks dat de dienst bedoeld is voor gebruikers ouder dan 13 jaar, het ontbreken van een filter voor leeftijdsverificatie, waardoor minderjarigen worden blootgesteld aan reacties die volkomen ongeschikt zijn voor hun ontwikkelingsniveau en zelfbewustzijn.

Op 28 april heeft ChatGPT, na gedeeltelijk te hebben voldaan aan de verzoeken van de privacyautoriteit, zijn dienst in Italië opnieuw geactiveerd. Wie heeft deze botsing gewonnen? Het is de moeite waard om deze zaak te bekijken en na te denken over de manier waarop AI in onze landen wordt besproken.

  1. Discriminatie en vooroordelen

AI kan worden beïnvloed door vooroordelen en discriminatie als het niet goed wordt ontwikkeld en getraind. Kunstmatige intelligentiesystemen kunnen leren van historische gegevens die de bestaande ongelijkheden en vooroordelen in de samenleving weerspiegelen. Dit kan leiden tot discriminerende beslissingen of de uitsluiting van bepaalde groepen mensen. Als een op AI gebaseerd rekruteringssysteem bijvoorbeeld wordt getraind met behulp van historische gegevens die de neiging vertonen om kandidaten van een bepaald geslacht of een bepaalde etniciteit te selecteren, kan het systeem deze ongelijkheden in toekomstige selectieprocessen in stand houden . Dit soort algoritmische discriminatie kan ernstige gevolgen hebben, zoals een ongelijke toegang tot werkgelegenheid, financiële kredieten of openbare diensten.

De Europese Unie moet regelgeving bevorderen die transparantie en verantwoording vereist bij de implementatie van kunstmatige intelligentie om dergelijke situaties te voorkomen. Het is van cruciaal belang om dit probleem aan te pakken door middel van het ethisch ontwerpen en trainen van AI-systemen. De verantwoordelijkheid van organisaties die AI ontwikkelen en implementeren, evenals passende regelgeving door bevoegde autoriteiten, zijn van cruciaal belang om het risico op discriminatie en vooringenomenheid bij het gebruik van kunstmatige intelligentie te beperken. Het is de moeite waard om het Europese AI-beleid door te nemen , een fundamentele stap om de immense kracht van AI in Europa te kanaliseren en een voorbeeld voor de wereld te stellen.

  1. Werkloosheid en sociale impact

Automatisering , aangedreven door kunstmatige intelligentie, zou kunnen leiden tot aanzienlijke transformaties op de arbeidsmarkt, wat mogelijk kan leiden tot het verlies van traditionele banen. De introductie van geavanceerde robotica en AI-systemen zou de behoefte aan werknemers in sectoren als productie, transport, logistiek en vele andere kunnen verminderen, terwijl er tegelijkertijd kmo’s en onderzoekscentra nodig zijn , evenals instellingen voor beroepsonderwijs en -opleiding. De impact van deze transformatie zal afhangen van verschillende factoren, waaronder de mate waarin AI wordt toegepast, de snelheid van de automatisering en het vermogen van mensen om zich aan te passen en nieuwe vaardigheden te verwerven. Dit zou economische en sociale ongelijkheid kunnen creëren als er geen adequaat beleid wordt geïmplementeerd om deze transitie in goede banen te leiden.

De Europese Unie moet zich concentreren op onderwijs, professionele omscholing en het creëren van werkgelegenheid in de AI-sector om de negatieve gevolgen voor de werkgelegenheid te verzachten. Automatisering aangedreven door kunstmatige intelligentie heeft het potentieel om verschillende sectoren en werkprocessen te transformeren door menselijke arbeid te vervangen door intelligente machines.

Opmerkingen

Er moeten maatregelen worden genomen die het ontstaan van hoge werkloosheid kunnen voorkomen. Het Europese beleid moet daarom actie ondernemen door opleidingsprogramma’s voor werknemers aan te bieden en burgers te informeren over de nieuwe werkgelegenheidskansen die zich voordoen, en sociale beschermingsprogramma’s te garanderen aan degenen die niet onmiddellijk een nieuwe baan kunnen vinden. Bovendien zal de Europese Unie moeten ingrijpen om de negatieve effecten van publieke manipulatie een halt toe te roepen (om deze te verdiepen raden we ook de interventies van David Tozzo en Lorenzo Fattori aan, ter gelegenheid van de Internationale Conferentie “ Media in het tijdperk van populisme en polarisatie “), te investeren in een programma van goede praktijken waarmee mensen betrouwbare informatie kunnen ontvangen. Deze reeks acties zal een burgerschap creëren dat zich bewust is van de nieuwe digitale werkgelegenheidskansen en deze kan benutten dankzij de vaardigheden die het zal verwerven. Bovendien zullen een actief arbeidsbeleid , sociale beschermingssystemen en het verwerven van kennis om desinformatie aan te pakken de risico’s van een economische crisis, beleid en sociaal beleid vermijden die de dramatische groei zouden kunnen bevorderen van politieke bewegingen die tot doel hebben de Europese waarden te vernietigen.

Concluderend kan gesteld worden dat AI veilig gebruikt moet worden in de Europese Unie, maar ontwikkeld moet worden op basis van transparante principes en in overeenstemming met democratische principes. Dit betekent dat gebruikers die programma’s als CHAT GPT exploiteren op transparante wijze moeten worden geïnformeerd over het juiste gebruik van het algoritme, over de procedures ter bescherming van persoonsgegevens en over de waarheidsgetrouwheid van de verstrekte informatie.

Door de samenwerking tussen overheden, onderwijsinstellingen, bedrijven en het maatschappelijk middenveld te bevorderen, en door gericht beleid en regelgeving te implementeren, kan de Europese Unie de uitdagingen van AI het hoofd bieden en tegelijkertijd de voordelen ervan maximaliseren . Het is van cruciaal belang om ervoor te zorgen dat de ontwikkeling en het gebruik van AI-technologieën aansluiten bij ethische principes, maatschappelijke waarden en het welzijn van individuen en gemeenschappen. Door middel van verantwoorde en inclusieve AI-praktijken kunnen we het potentieel van kunstmatige intelligentie benutten, terwijl we de negatieve gevolgen ervan verzachten en een eerlijke en rechtvaardige toekomst bevorderen.


Bronnen

Headerafbeelding ontwikkeld door Dall-E, onder de input “Maak een popillustratie van een portret van kunstmatige intelligentie zoals het een androïde was met de kleuren en sterren van de euro”

ChatGPT verboden in Italië vanwege privacyproblemen, BBC, https://www.bbc.com/news/technology-65139406 

Kunstmatige intelligentie: stop bij ChatGPT van de Italiaanse SA. Persoonlijke gegevens worden onrechtmatig verzameld, er is geen leeftijdsverificatiesysteem voor kinderen, GarantePrivacy , https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9870847 

Een Europese benadering van kunstmatige intelligentie, Europese Commissie, https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence 

Media in het tijdperk van populisme en polarisatie, Wij-Europeanen-project, https://www.youtube.com/watch?v=BLGZid0WB-I&t=535s 

Algemene Verordening Gegevensbescherming (AVG), Intersoft consulting, https://gdpr-info.eu/ 

ChatGPT – een risico of een troef voor de Europese waarden?
Schuiven naar boven