AI voor zakelijk gebruik: Wat zijn de risico's?

AI voor zakelijk gebruik: Wat zijn de risico's?

  • Auteur: Zoë Vangangelt
  • Datum: 13 mrt 2024
  • 4 min
|

In een snel veranderende digitale wereld groeit het gebruik van AI als essentieel hulpmiddel voor organisaties continu. Hoewel het gebruik van AI verbeterde efficiëntie en productiviteit met zich meebrengt, zijn er ook potentiële risico’s verbonden aan het gebruik van deze technologie in een zakelijke context. Het is dan ook van groot belang dat de C-Suite zich bewust is van deze risico’s alvorens AI te implementeren in hun bedrijfsprocessen.  

Deze blog biedt een diepgaande analyse van de potentiële risico’s van AI-adoptie om de C-suite een helder inzicht te bieden in de impact van AI op hun bedrijfsprocessen én zo een weloverwogen beslissing te kunnen nemen omtrent de mogelijke implementatie ervan. 

Navigeren door de AI-revolutie

AI-adoptie door organisaties betreft het integreren van AI-technologieën in bedrijfsprocessen. Nu AI-modellen steeds krachtiger worden, streven organisaties naar tijds- en kostenefficiëntie door AI op grote schaal in te zetten. 

Risico’s bij de implementatie van AI

In deze blog zoomen we dieper in op vijf risico’s die hand in hand gaan met de adoptie van AI in een zakelijke context: 

  • Beveiligingsrisico’s
  • Accuraatheid van de uitvoer
  • Risico op jailbreaking
  • Plagiaat of schending van het auteursrecht
  • Beschikbaarheid op lange termijn 

 

1. Beveiligingsrisico’s

Om Large Language Models (LLM’s) te kunnen gebruiken, moeten er gegevens worden ingevoerd of moet de tool geïntegreerd zijn met je bedrijfsgegevens. Microsoft CoPilot, bijvoorbeeld, verzamelt gegevens uit je Microsoft-tenant om je te helpen bij het maken van presentaties of je bruikbare inzichten aan te reiken over je zakelijke omgeving. 

Dergelijke manier van werken brengt echter een aanzienlijk risico met zich mee inzake gegevensbeveiliging, nu je werknemers mogelijks toegang krijgen tot gevoelige gegevens waar ze normaal gesproken geen toegang toe zouden mogen krijgen. Dit benadrukt het belang van een robuust data governancebeleid voorafgaand aan de implementatie van generatieve AI. 

Veel LLM’s beweren dat ze je bedrijfsgegevens niet delen, maar ze kunnen deze wel gebruiken om hun prestaties te verbeteren of om betere resultaten te genereren voor andere gebruikers. Daarom is het cruciaal om op de hoogte te zijn van het privacybeleid van de LLM’s die je organisatie gebruikt, en ervoor te zorgen dat je zakelijke gegevens niet worden gebruikt voor ongeautoriseerde of schadelijke doeleinden. Vorig jaar heeft Samsung haar werknemers verboden om generatieve AI-tools te gebruiken nadat hun gegevens per ongeluk waren uitgelekt via ChatGPT. 

2. Accuraatheid van de uitvoer

LLM’s worden getraind op omvangrijke datasets, die mogelijkerwijs fouten, afwijkingen of verouderde informatie bevatten. Bovendien is bekend dat LLM’s kunnen hallucineren of valse of misleidende informatie kunnen genereren gebaseerd op interne gedragspatronen en vooroordelen. 

Het is van vitaal belang om gegevens die door LLM’s worden gegenereerd te verifiëren en te vergelijken, en er niet blindelings op te vertrouwen. In de beginfase was ChatGPT getraind op gegevens tot september 2021 en had het geen kennis van latere ontwikkelingen. Hoewel het model nu is bijgewerkt, blijft het belangrijk om ervoor te zorgen dat de uitvoer van de gegevens relevant is. 

Bovendien worden LLM’s getraind met gegevens die mogelijks niet de huidige stand van zaken weergeven. Denk hierbij aan veranderende terreinen zoals politiek, wetenschap of technologie. Het is daarom van belang om de gegevens die door LLM’s worden gebruikt regelmatig bij te werken en hun resultaten aan te vullen met de meest recente informatie van betrouwbare bronnen. 

3. Risico op jailbreaking

Een ander mogelijk probleem is “Jailbreaking“, een vorm van hacken waarbij de aanvaller erin slaagt om het AImodel te laten negeren wat het normaal gesproken niet mag doen. Uit een artikel van Reuters blijkt dat in januari 2024, pakketbezorger DPD het AI-gedeelte van hun online chatbot moest uitschakelen nadat een gefrustreerde klant erin was geslaagd de tool te gebruiken om een vernederend gedicht te schrijven over de klantenservice van DPD. 

4. Plagiaat of schending van het auteursrecht

LLM’s kunnen teksten genereren die lijken op of identiek zijn aan bestaande bronnen, waarbij de juiste bronvermelding ontbreekt. Afhankelijk van het gebruik van de verkregen informatie, kan dit een probleem vormen bij plagiaatclaims. Het is daarom belangrijk om tools te gebruiken die kunnen helpen bij het opsporen van plagiaat en/of een manier te vinden om de bronnen die LLM’s gebruiken te citeren. Een bewezen plagiaatclaim kan ernstige gevolgen hebben voor je organisatie haar reputatie. 

5. Beschikbaarheid op lange termijn

In een wereld waar technologie centraal staat en voortdurend evolueert, komen en gaan organisaties waardoor niet elk ontwikkeld LLM een lang leven beschoren is. Sommige LLM’s, zoals ChatGPT en Bing Chat, zullen prominent aanwezig zijn en algemeen bekend blijven, terwijl andere LLM’s zich mogelijk zullen specialiseren in specifiekere onderwerpen. 

Verder is het belangrijk om te erkennen dat het zakelijk gebruik van LLM’s afhankelijk is van externe factoren, zoals de beschikbaarheid van gegevens, investeringen in tools, technische ondersteuning, etc. We naderen snel het punt waarop GenAI-tools van cruciaal belang zullen zijn voor bedrijfsdoeleinden en dus moeten worden opgenomen in de bedrijfscontinuïteitsplanning. 

Hoewel we slechts aan het begin staan van het gebruik van GenAI-tools, moeten we ons bewust zijn van de potentiële cyberbeveiligingsrisico’s voor organisaties. Eén van de grootste risico’s van AI-integratie is de implementatie ervan zonder het voorbereiden van je zakelijke gegevens. 

 

Neem contact op met onze experts om te ontdekken hoe je de juiste fundering kunt leggen voor de implementatie van AI in je zakelijke omgeving. 

Klik HIER om meer te lezen over hoe we je organisatie kunnen helpen bij de veilige implementatie van AI.

 

FAQs

Wat betekent LLM in AI? 

LLM staat voor Large Language Model, een AI-algoritme dat gebruik maakt van deep learning. 

 

Welke industrie past AI het snelst toe? 

Sinds januari 2024 blijkt dat de technologie-, auto– en luchtvaartindustrie artificiële intelligentie het snelst hebben geïmplementeerd. 

|