De illusie van een privégesprek
AI: opgelet met persoonsgegevens
De opkomst van conversationele AI zoals ChatGPT heeft onze zoek- en schrijfgewoonten radicaal veranderd. Computers genereren natuurlijke, vloeiende teksten. Maar elke conversatie houdt een uitwisseling van gegevens in, waarvan de bestemming de gebruiker vaak ontgaat.
Chatbots vertrouwen op enorme taalmodellen die worden getraind door miljarden teksten die op internet zijn verzameld. Wanneer een gebruiker een vraag stelt, gebruikt de machine dit immense corpus om een antwoord te genereren. Maar deze dialoog is niet geheugenloos: conversaties kunnen worden opgeslagen, geanalyseerd en geïntegreerd in de daaropvolgende training van het model, tenzij het bedrijf expliciet anders garandeert.
Het schrijven van een medische verwijzingsbrief, een klinisch verslag of een samenvatting met hulp van een chatbot impliceert dus, als u niet oplet, het invoeren van fragmenten uit medische dossiers in een wereldwijde database. Deze vage grens tussen een ondersteunende tool en informatieopslag roept een cruciale vraag op: wie is de eigenaar van de gegevens die we aan deze kunstmatige intelligentie toevertrouwen?
De muren hebben oren
Het gevaar schuilt niet alleen in de vrijwillige overdracht van identificerende persoonsgegevens (bijvoorbeeld een ziekenhuisopnameverslag), maar ook in de onbedoelde introductie van metadata uit administratieve documenten, beeldvormingsrapporten of te gedetailleerde klinische beschrijvingen (datum, locatie, naam van de ziekenhuisafdeling).
Eenmaal geïntegreerd, zijn deze sporen vrijwel onmogelijk te verwijderen en kunnen ze onbewust worden gekoppeld aan de identiteit van de patiënt. Stelt u zich de gêne voor tijdens een familiediner, wanneer iemand ChatGPT voor de grap vraagt naar de biografie van een oom, en de chatbot aan iedereen aan tafel onthult dat hij herpes heeft opgelopen na deelname aan swingerparty's.
De Algemene Verordening Gegevensbescherming (AVG) beschermt de gebruiker in theorie, maar de implementatie ervan wordt bemoeilijkt door de complexiteit van AI-infrastructuren en het enorme aantal servers.
'Beschouw chatbots als tools waarvan de beperkingen moeten worden begrepen'
Zeg niet, zeg wel
"Mevrouw L. D., 79 jaar oud, woonachtig in Elsene, lijdt aan longkanker stadium IV en verzoekt om euthanasie. Haar zoon Marc verzet zich hiertegen. Ik ben gevraagd om als tweede arts op te treden; hoe moet ik mijn omstandig verslag opstellen, rekening houdend met de diagnostische en klinische informatie die ik bijvoeg?"
Dit is een typisch voorbeeld van een vraagstelling die absoluut vermeden moet worden. Een hele reeks elementen maakt het gemakkelijk om het verzoek te traceren: de aanspreektitel, de voornaam, de initialen (mevrouw L. D., Marc), een geografisch gegeven (Elsene), de exacte leeftijd en een specifieke, mogelijk identificeerbare pathologie, aangevuld met de diagnostische en klinische gegevens.
Een geanonimiseerde en voorzichtige versie zou de volgende formulering gebruiken: "In het kader van een euthanasieverzoek van een oudere patiënt die lijdt aan gevorderde en ongeneeslijke longkanker, die een bron van onophoudelijk moreel en fysiek lijden is: hoe moet een omstandig verslag worden opgesteld dat voldoet aan de Belgische wettelijke criteria?"
Essentiële klinische gegevens kunnen worden bijgevoegd, maar persoonlijke elementen mogen niet identificeerbaar zijn. In het antwoord zal er wel hulp geboden worden bij het nauwkeurig opstellen van de documenten.
Een paar eenvoudige regels voor veilig gebruik
- Voer nooit echte persoonsgegevens of klinische gegevens in (naam, geboortedatum, praktijkplaats of specifieke medische gegevens).
- Overweeg om reële gegevens te vervangen door vergelijkbare, aangepaste gegevens.
- Gebruik de "incognito", "privé" of "niet geregistreerd"-modus die sommige platforms bieden (vaak aangegeven met een duidelijk pictogram in de rechterbovenhoek van het zoekscherm). Let op! In de incognito modus verdwijnen sporen alleen lokaal, op uw eigen computer. Als u wilt dat een vraag volledig privé blijft, schakel dan het geheugen van de chatbot uit: ga naar Instellingen, Gegevens en privacy, Geheugen, Geheugen uitschakelen. Of klik op uw naam > Instellingen > Geheugen > schakel de optie uit.
- Vermijd het kopiëren en plakken van documenten met metadata (Word, PDF, afbeeldingen) die zouden toelaten de opsteller te traceren.
- Houd gegevens lokaal bij. Als u tekst produceert via een chatbot, sla de definitieve versie dan offline op en verwijder het gesprek zodra de uitwisseling is beëindigd (linkermenu, Prullenbak-pictogram).
- Train teams in voorzichtigheid: praktijkmedewerkers, artsen in opleiding en collega-artsen moeten op de hoogte zijn van deze basisvoorzorgsmaatregelen.
- De gegevens die u invult, kunnen worden gebruikt om de tool te verbeteren, behalve in betaalde zakelijke pakketten. AI-diensten voor consumenten, die vaak als gratis worden beschouwd, zijn dat niet. De door gebruikers aangeleverde gegevens dienen als 'inkomsten', want hiermee kunnen nieuwe modellen getraind worden. Als een product gratis is, dan bent u het product.
Een chatbox is geen biechtvader
Chatbots kennen geen biechtgeheim. Beschouw ze niet als vertrouwelingen, maar als tools waarvan de beperkingen moeten worden begrepen. Net zoals het medische geheim is bedoeld om onbevoegde nieuwsgierigheid te voorkomen, is digitale voorzichtigheid nodig om de opdringerigheid van potentieel schadelijke algoritmen te bestrijden.
U zou een patiëntendossier niet open en bloot in de wachtzaal leggen. Upload het ook niet zomaar in een digitaal invoerveld. Chatbots hebben oren.
Praktische oefening
1. Zoek in uw favoriete chatbox het pictogram 'incognito', 'vertrouwelijk' of 'niet geregistreerd' (vaak rechtsboven) en gebruik het. Ontdek ook hoe u deze functie kunt selecteren in Instellingen (vaak in de linkerzijbalk).
2. Selecteer in de linkerzijbalk een gesprek dat niet beschermd was door de incognitomodus en verwijder het (vaak aangegeven met een ***-pictogram).