Waarom je niet zomaar ChatGPT kan gebruiken voor je bedrijf

Je hoort het steeds vaker op het nieuws: het gebruik van ChatGPT en andere tools zoals Gemini, Copilot en nog vele andere. Binnen korte tijd is het gebruik van AI enorm toegenomen, zelfs onder bedrijven. Je kent vast wel iemand in je kringen die deze tools al gebruikt om verschillende taken sneller en beter uit te voeren. Maar het gebruik van ChatGPT en vergelijkbare tools kan ook enorm gevaarlijk en onveilig zijn als je er niet goed mee omgaat. In dit artikel leggen we uit wat de risico’s zijn en bieden we praktische tips om veilig met deze tools te werken.

De risico’s bij het gebruik van ChatGPT en soortgelijke tools

In het privacybeleid van ChatGPT staat dat OpenAI content die gebruikers verstrekken kan gebruiken om de modellen van ChatGPT te trainen. Dit betekent dat informatie die jij deelt mogelijk wordt gebruikt als antwoord op vragen van anderen, waardoor persoonlijke gegevens onbedoeld kunnen worden blootgesteld. Wanneer jij een gevoelig intern document invoert voor bijvoorbeeld een grammatica controle dan zou het kunnen dat deze informatie ergens anders terugkomt in de vraag van een andere gebruiker. Dit is niet alleen het geval bij ChatGPT maar ook bij andere AI tools. Dit kan dus onbedoeld leiden tot een datalek, dit was de reden voor Samsung om een algeheel verbod in te stellen voor deze soort tools.

Praktische tips om veiliger te werken

Als je gebruik maakt van ChatGPT dan raden we aan om niet gebruik te maken van de versies ChatGPT Free of Plus. We raden je wel aan om gebruik te maken van ChatGPT Team of Enterprise. Hier wordt standaard de informatie die je aanlevert niet gebruikt om het taalmodel te trainen. En met ChatGPT Enterprise is deze data ook volledig GDPR en SOC 2 goedgekeurd. 

Indien je hier niet voor kiest of gebruik maakt van andere tools dan raden we je aan om de volgende tips te volgen:

  1. Dataverwijdering verzoek: Als je gevoelige informatie hebt gedeeld en je wilt deze verwijderen, dien dan een dataverwijderingsverzoek in bij de AI-toolprovider. Dit zorgt ervoor dat je gegevens niet alleen uit je zicht verdwijnen, maar ook daadwerkelijk worden verwijderd uit de systemen van de provider.

  2. Beperk gegevensdeling: Voorkom het delen van gevoelige informatie en beperk je input tot gegevens die je ook zou delen met anderen, zoals concurrenten of op sociale media. Denk goed na voordat je bedrijfsgeheimen of persoonlijke informatie deelt en vermijd het gebruik van namen, adressen of andere identificeerbare informatie.

  3. Anonimiseer interne documenten: Als je interne documenten wilt invoeren (wat we niet aanraden), zorg er dan voor dat deze volledig geanonimiseerd zijn. Verwijder alle persoonlijk identificeerbare informatie en gebruik generieke termen in plaats van specifieke namen of details die kunnen leiden tot identificatie van de eigenaar of betrokken personen.

  4. Beheer toegangscontrole: Controleer wie er toegang heeft tot de AI-chatgesprekken, vooral als je in een gedeelde omgeving werkt. Zorg ervoor dat alleen geautoriseerde gebruikers toegang hebben tot jouw gesprekken en neem indien nodig extra beveiligingsmaatregelen, zoals het gebruik van wachtwoorden of tweefactorauthenticatie.

  5. Regelmatige privacy-instellingen controle: Houd je privacy-instellingen regelmatig in de gaten en werk ze bij. AI-tools evolueren voortdurend en nieuwe functies kunnen nieuwe privacyrisico’s met zich meebrengen. Door regelmatig je instellingen te controleren en aan te passen aan je behoeften, kun je jezelf beter beschermen tegen potentiële bedreigingen voor je privacy. Bij ChatGPT is er bijvoorbeeld recentelijk een optie gekomen om te voorkomen dat ingevoerde data wordt gebruikt om het taalmodel verder te trainen. Dit is dus als je gebruik maakt van de versies “Free” en “Plus” Deze instelling vind je onder je account – instellingen – Data beheer – Chat geschiedenis en training.

  6. Communiceer en stel beleid op: Ga in gesprek met je personeel en/of mede collega’s over het gebruik van AI-tools zoals ChatGPT. Creëer bewustzijn rondom de mogelijke privacy- en beveiligingsrisico’s en bespreek het belang van het zorgvuldig omgaan met gevoelige informatie. Stel gezamenlijk beleid op dat richtlijnen en procedures bevat voor het gebruik van AI-tools en het delen van gegevens. Moedig elkaar aan om alert te zijn en elkaar erop te attenderen wanneer er mogelijk risicovolle situaties ontstaan. Door een open dialoog te voeren en samen te werken aan het opzetten van beleid, kunnen jij en je team de veiligheid en privacy van jullie gegevens versterken.

Met dit artikel willen we absoluut niet zeggen dat je nooit gebruik moet maken van AI-tools. We proberen alleen duidelijk te maken wat de mogelijke gevolgen kunnen zijn, in de hoop dat je een mogelijk datalek voorkomt. Deze tools zijn uiteindelijk zeer handig; ook wij maken er af en toe gebruik van voor brainstorming en kleine tekstuele verbeteringen. Dit doen we echter wel met de tips en maatregelen die hierboven zijn gegeven, zodat we niet onbedoeld gevoelige informatie delen.

De tip om gebruik te maken van ChatGPT Team en Enterprise hebben we gekregen van Bob Ballings en Wim Van Rompuy, nogmaals bedankt!

Inzichten en uitleg

Laat je ontzorgen door de adviseurs van Asfelias

Wij zijn Asfelias begonnen om kleinere bedrijven te helpen bij het weerbaarder worden tegen cybercriminelen. De kans is groot dat je de kennis, kunde en tijd niet hebt om voldoende aandacht te geven aan cybersecurity binnen je bedrijf. Wij ontzorgen je daarom zoveel mogelijk op dit gebied. We maken samen met jouw je bedrijf stap voor stap weerbaarder.