Spring naar bijdragen

  • De Autoriteit Persoonsgegevens waarschuwt voor de risico's van algoritmes en AI

     Delen


    De Autoriteit Persoonsgegevens waarschuwt dat we ons onvoldoende bewust zijn van de risico's van algoritmes en kunstmatige intelligentie. Deze technologieën kunnen leiden tot desinformatie, privacyschending en discriminatie. De ontwikkelingen op het gebied van kunstmatige intelligentie gaan sneller dan we kunnen bijhouden, waardoor we een achterstand hebben in het herkennen en aanpakken van deze risico's.

    Het toeslagenschandaal heeft laten zien welke gevaren algoritmes met zich meebrengen voor onze privacy. Duizenden mensen werden onterecht bestempeld als fraudeurs door algoritmes. Volgens experts kan kunstmatige intelligentie zelfs nog meer risico's met zich meebrengen.

    Hoewel techbedrijven graag pronken met kunstmatige intelligentie, is het eigenlijk niet meer dan een verzameling algoritmes. Zodra een algoritme conclusies kan trekken of iets nieuws kan genereren, wordt het als AI beschouwd.

    Privacyexpert Rejo Zenger omschrijft algoritmes en kunstmatige intelligentie als een zwarte doos. Je stopt data in de doos, maar je hebt geen inzicht in wat er met die data gebeurt. Er komt een conclusie uit, of er komen nieuwe data uit, maar je hebt geen idee hoe dit tot stand is gekomen. Dit brengt risico's met zich mee op het gebied van privacyschending, discriminatie en desinformatie.

    Een belangrijk aspect van kunstmatige intelligentie is de data waarmee het wordt getraind. Als deze data niet representatief zijn, bestaat het risico op discriminatie en het genereren van verkeerde informatie. Bijvoorbeeld in de zorgsector is er veel medische kennis over mannen, waardoor een AI-model dat alleen met deze data wordt getraind mogelijk onbetrouwbare resultaten oplevert voor vrouwen en kinderen.

    Daarnaast moeten mensen in ons land vaak toestemming geven voordat hun privacygevoelige gezondheidsdata gebruikt mogen worden om een AI-model te trainen. Het risico bestaat dat bepaalde groepen toestemming geven en andere groepen niet, waardoor de trainingsdata niet representatief zijn.

    De conclusies en gegenereerde informatie van een AI-model zijn sterk afhankelijk van de data die erin gestopt worden. Als de data niet representatief zijn, kunnen de resultaten onjuist en zelfs discriminerend zijn. Dit onderstreept het belang van toezicht op kunstmatige intelligentie.

    De Autoriteit Persoonsgegevens heeft het toezicht op algoritmes en kunstmatige intelligentie dit jaar hoog op de agenda staan. Ze geven prioriteit aan klachten, datalekken en onderzoeken die hiermee verband houden. Sinds januari 2023 zijn ze ook coördinerend algoritmetoezichthouder in Nederland, om publieke waarden en grondrechten te beschermen bij het gebruik van algoritmes en kunstmatige intelligentie.

    Hoewel het vertrouwen van de Nederlandse burger in algoritmes en AI klein is, is dit volgens de Autoriteit Persoonsgegevens niet geheel terecht. Technologie kan namelijk ook bijdragen aan duurzame welvaart en welzijn.

    Kunstmatige intelligentie biedt veel kansen, vooral in de zorgsector. Het kan bijvoorbeeld helpen bij het sneller en accurater stellen van diagnoses. De privacyadvocaat benadrukt echter dat kunstmatige intelligentie de arts niet zal vervangen. Het kan taken overnemen en de zorg efficiënter maken, waardoor er meer tijd overblijft voor persoonlijk contact en het helpen van meer patiënten. Dit kan leiden tot meer vertrouwen in de zorg.



    Drifter
     Delen


    Terugkoppeling

    Aanbevolen reactie

    Wat een onwetend stuk weer zoals we al hadden kunnen lezen in het nieuws van Minister van veiligheid. Zoveel onkunde en dat van de Toeslagen affaire heeft niets te maken met discriminerende algoritmen maar puur met invoeren van informatie. Data wordt in gevoerd door de mens en niet AI zelf. Ik wordt zo moe van dit soort mensen die armoe zijn aan informatie over AI. De algoritmes worden ook ingevoerd door mensen en in dit geval van de Toeslagen affaire was het kabinet Rutte en zijn ministers die dit hebben ingevoerd. Er is niks mis met streng beleid maar wel als je er verkeerd mee omgaat wat nu ook gebeurd is. Los hiervan is deze berichtgeving ook niet om dit soort foute zaken aan te pakken maar meer omdat men niet wil hebben dat dingen zoals criminaliteit die bijvoorbeeld in Nederland voornamelijk in handen is van juist ja mensen met een migratie afkomst. Dit is bevestigd door meerdere onderzoeksbureaus zoals CBS maar je mag het niet meer benoemen. Feiten zijn feiten ook al wil je ze niet zien. Maar ze doelbewust weglaten zodat de waarheid verhuld wordt ben ik volledig mee oneens.

    bewerkt door Diederik
    Link naar opmerking
    Deel via andere websites

    Tja... Mmmmmmmm..... Ja ja.... 

    Bij toeslagen loopt het mis maar in de zorgsector is het een uitkomst... 

    Wat kan daar ook mis gaan... 

    Verkeerde diagnose mss? 

    Ik heb het er niet zo mee.. 

    Begint steeds meer richting terminator te gaan... 

    Alleen deze keer... 

    "we won't be back" 

    Link naar opmerking
    Deel via andere websites



    Doe je mee?

    Je kunt nu een bericht plaatsen en je later registeren. Als je al een account hebt, kun je je hier aanmelden.

    Gast
    Voeg een reactie toe...

    ×   Je hebt opgemaakte inhoud geplakt.   Opmaak verwijderen

      Only 75 emoji are allowed.

    ×   Jouw link is automatisch embedded.   Toon als een normale link

    ×   Je vorige inhoud is hersteld.   Schoon editor

    ×   You cannot paste images directly. Upload or insert images from URL.


  • Wie zijn er online?  7 leden zijn actief

×
×
  • Nieuwe aanmaken...