Wordt het brein van de mens in de toekomst gehackt?

De juridische haken en ogen aan technologie in de hersenen

Door: Daniel Osorno van Wissen


Kunstmatige intelligentie neemt de wereld over. De laatste jaren heeft artificiële intelligentie zich steeds verder ontwikkeld, met name door de inzet van innovatieve algoritmes, krachtige computerchips, robotica en daarnaast door uitbreiding van de virtuele dimensie. De toename van kunstmatige intelligentie heeft invloed op zowel microniveau – jouw gedrag als individu – als macroniveau – de politieke, economische en ethische koers van de maatschappij. Menselijke factoren, zoals macht en machtsmisbruik, spelen hier een belangrijke rol in. Echter, niet alleen kunstmatige intelligentie daagt onze levens uit. Ook biotechnologie speelt steeds een grotere rol in de evolutionaire wereld waarin jij en ik ons bevinden. Heb jij de film The Matrix ooit gezien? Of heb je de derde aflevering – The entire history of you – van Black Mirrors gezien? Het kan zomaar zijn dat het concept van man en machine die één worden over een aantal jaar werkelijkheid is – de hybridisatie van het menselijk lichaam met technologische onderdelen. Als je het mij vraagt, leven wij nu in de Renaissance (wedergeboorte) van technologie. In deze bijdrage bespreek ik de juridische haken en ogen aan technologie in de hersenen.

Het Neuralink-project
In juli 2019 heeft Elon Musk, voornamelijk bekend van Tesla en SpaceX, een persconferentie over kunstmatige intelligentie gehouden.[1] Volgens hem zou de mensheid binnen een korte tijd worden overtroffen door kunstmatige intelligentie. Hij suggereerde dat wij aan kunstmatige intelligentie onderworpen zouden (kunnen) worden. Met deze woorden introduceerde hij dan ook de stand van zaken betreffende het Neuralink-project. Het doel van Neuralink is het uitbreiden van de menselijke intelligentie met behulp van kunstmatige intelligentie.[2] Het implanteren van een chip in het hoofd zou dit mogelijk moeten maken. De chip – de Brain-machine-interface – is een interface waarmee het mogelijk wordt voor mensen om zich te kunnen verbinden met elke machine, die de input van onze hersenen kan lezen. Volgens Musk zou zo’n Brain-machine-interface niet alleen onze intelligentie kunnen uitbreiden, maar ook klinische aandoeningen kunnen verhelpen.[3] Het schoolvoorbeeld voor dit project is de film The Matrix. In deze film is het voor de hoofdrolspeler mogelijk om informatie en vaardigheden te leren van een computer. Klinkt dat niet als muziek in de oren?

Het implanteren van zo’n chip is vergaand en een heftige ingreep. Kort gezegd creëert Neuralink ultrafijne draadjes die als taak hebben om informatie en signalen naar de zender te overdragen. De draden worden gehecht aan bepaalde weefsels van het brein en blijven verbonden aan de chip. Wanneer de draadjes met succes zijn bevestigd, zal de overdracht van informatie plaatsvinden via een USB-C port, die aan de externe oppervlakte van het hoofd zal komen. De USB-C port maakt vervolgens de verbinding tussen het (externe) apparaat en het brein mogelijk. Aangezien het implanteren van zo’n chip een zeer complexe operatie betreft, heeft Neuralink ook een robot ontwikkeld die de behandeling op een veiligere, snellere en nauwkeurige wijze zou kunnen uitvoeren dan mensen. Als je nu al staat te springen om deze chip in je hoofd te laten implanteren maar je bang bent voor naalden, dan raad ik het je af. De robot maakt namelijk gebruik van twee naalden. Echter, maak je geen zorgen; Neuralink streeft ernaar om in de toekomst gebruik te maken van lasertechnologie.[4]

Aansprakelijkheid
Twee jaar voorafgaand aan de persconferentie van Elon Musk over Neuralink, heeft hij al een statement uitgebracht. Volgens hem zou de technologie van de toekomst een fundamenteel risico kunnen vormen voor ons voortbestaan. Om deze risico’s te voorkomen, zouden overheden proactief moeten zijn in het ontwerpen van wetgeving om de technologie bij te benen.[5] Gelukkig is hij niet de enige die zich op dit standpunt stelt. Door de opkomst van technologieën zoals het bovenstaande, proberen overheden betere systemen in te richten om risico’s te beperken. Zo bracht de Europese Commissie dit jaar een rapport uit waarin naar de potentiële risico’s wordt gekeken. Hierbij gaat het met name om het gebrek aan transparantie bij besluitvorming, verschillende vormen van discriminatie, schending van privacy of gebruik voor criminele doeleinden.[6] In het bijzonder keek de Europese Commissie naar de aansprakelijkheid met betrekking tot kunstmatige intelligentie en andere technologieën. Zij constateert dat er in het huidige wettelijk kader leemten zijn. Wat deze leemten zijn, zal hier nader worden belicht.

Stel je voor dat je hebt besloten om je menselijke intelligentie uit te breiden; je wilt de Neuralink-chip graag laten implanteren. Vervolgens laat je je opereren, maar de robot maakt een (menselijke) fout waardoor jij verlamd raakt of niet meer kunt praten. Wie is dan aansprakelijk? De robot, Neuralink of Elon Musk? En wat als het niet een (menselijke) fout was maar een autonome beslissing van het systeem? In zo’n scenario wordt het lastiger om vergoedingen te krijgen door de schade die door zo’n ‘autonome’ robot wordt veroorzaakt. In de praktijk zou je mogelijk geen vordering wegens aansprakelijkheid kunnen instellen. De uitkomst is dus dat kunstmatige intelligentie verschillende aspecten van de huidige aansprakelijkheidsregelgeving in gevaar kan brengen, waardoor de effectiviteit van deze regelgeving wordt beperkt. Mogelijk gevolg is – zoals in het bovenstaande scenario – dat de schade moeilijk te herleiden zal zijn naar een persoon, wat volgens de meeste nationale regels – zoals de Nederlandse regels – noodzakelijk is om een claim te kunnen indienen.[7] Nieuwe gerichte wetgeving – specifiek voor kunstmatige intelligentie – is mogelijk nodig, zo concludeert de Europese Commissie. Gelukkig zijn er in het recht van de lidstaten oplossingen ontwikkeld om de bewijslast in zulke scenario’s te verlichten. Nederland valt wat dit betreft erg op.

Uit onderzoek is gebleken dat in Nederland nog geen juridische lacunes worden ervaren.[8] Op dit ogenblik bestaat in ons land een toezicht op het algoritme gebruik bij kunstmatige intelligentie.[9] Hoe zit het dan met de aansprakelijkheid? Het uitgangspunt van het Nederlandse aansprakelijkheidsrecht is dat elke persoon zijn eigen schade draagt, behalve als de schade te wijten is aan een ander persoon. Op dit punt kan aansluiting worden gezocht bij zorgvuldigheidsnormen uit het verkeersrecht en uit de onrechtmatige daad ex art. 6:162 BW en daarnaast bij de rechtspraak van de Hoge Raad, zoals het welbekende Kelderluik-arrest, de Haviltex-norm en het Lindebaum/Cohen-arrest. Onder omstandigheden zou de ontwikkelaar van de kunstmatige intelligentie risicoaansprakelijkheid kunnen dragen. In het geval van Neuralink zou zij als rechtspersoon dan risicoaansprakelijk kunnen zijn.[10] Echter, de voorwaarden hiervoor zijn dat het bedrijf in de wetenschap verkeert dat het systeem – tijdens een behandeling – de schade zou kunnen veroorzaken en dat zij de robot desalniettemin op de markt brengt. In het nalaten van voorzorgmaatregelen kan een beroep op de onzorgvuldig handelen slagen.[11] Door het faciliteren van zo’n implantaat creëert Neuralink een situatie die mogelijk schade tot gevolg heeft en dat zou – in het kader van het burgerlijk wetboek – gekenmerkt kunnen worden als onzorgvuldig. Het is belangrijk dat er vooraf is nagedacht over mogelijke fouten en hoe die snel gecorrigeerd kunnen worden. Wat betreft bovenstaande technologieën blijft het vooralsnog de vraag of het ontbreken van de menselijke factor – waardoor de eventueel geleden schade niet of lastig aan een persoon kan worden toegerekend – mogelijk problematisch kan zijn bij aansprakelijkheid of risicoaansprakelijkheid.

Toekomstperspectieven
We leven in een veelbelovende, maar tegelijkertijd een verwarrende tijd. Wat de impact op de mens, bedrijven, organisaties, overheid en maatschappij zal zijn als zulke experimenten zoals die van Neuralink een succes worden, lijkt mij iets om naar uit te kijken. De juridische gevolgen en ontwikkelingen van veranderende en vooruitstrevende technologie, in het bijzonder kunstmatige intelligentie, zijn mijns inziens een interessante zaak voor ons als rechtenstudenten. Des te meer, omdat we hierdoor op het gebied van bijvoorbeeld aansprakelijkheid grote uitdagingen ervaren. Momenteel wordt er veel onderzoek gedaan naar de mogelijke positieve en negatieve gevolgen die zulke technologieën de wereld in brengen. Hoewel de wettelijk kaders van de Europese Unie en Nederland in beginsel grote lacunes voorkomen, kunnen sommige gevallen oneerlijk of inefficiënt uitvallen. Denk aan slachtoffers die geen vergoedingen bij schade kunnen verhalen. Om het niet uit te laten monden in een dystopische toekomst – een maatschappij zonder individuele vrijheid die gecontroleerd wordt door robots en computers – zoals in de film ‘Blade Runner 2049’, proberen overheden zich zo snel mogelijk aan te passen. Als dit alles goed uitpakt, zal de Neuralink-chip de menselijk intelligentie uitbreiden, zal Elon Musk een plaats in de geschiedenis boeken en tot slot koester ik de verwachting dat onze hersenen niet zullen worden gehackt.

 

[1] Neuralink, ‘Neuralink Launch Event’, United States: 16 july 2019.

[2] É. Fourneret, ‘The hybridization of the Human with Brain Implants: the Neuralink Project’, Clinical Neuroethics Cambridge Quarterly of Healthcare Ethics, 2020/29, afl. 4, p. 668-672.

[3] E. Musk, Neuralink, ‘An integrated brain- machine interface platform’, J Med Internet Res, 2019/21.

[4] A. Kulshjreshth, A. Anand en A. Lakanpal, ‘Neuralink- An Elon Musk Start-up Achieve symbiosis with Artificial intelligence’, 2019 International Conference on Computing, Communication, and Intelligent Systems (ICCCIS), p. 105-109.

[5] ‘National Governors association’, Elon Musk, Youtube, 16 juli 2017.

[6] Witboek over kunstmatige intelligentie – een Europese benadering op basis van excellentie en vertrouwen. (PbEU 2020, C 65/02).

[7] Verslag over de gevolgen van kunstmatige intelligentie, het internet der dingen en robotica op het gebied van veiligheid en aansprakelijkheid (PbEU 2020, C 64/01).

[8] Kabinetsappreciatie witboek over Kunstmatige Intelligentie, bijlage bij Kamerbrief 12-06-2020.

[9] V. Frissen, M. van Eck, T. Drouwen, ‘Onderzoek toezicht op het gebruik van algoritmen door de overheid’, rapport 2019.

[10] A.I. Schreuder, ‘Aansprakelijkheid voor ‘zelfdenkende’ apparatuur’, AV&S 2014/20, afl. 5/6, p. 131-136.

[11] S. Kulk & S. van Deursen, Juridische aspecten van algoritmen die besluiten nemen. Een verkennend onderzoek, Den Haag: WODC 2020.