FrankenTech: zijn Musk en co oprecht over de pauze voor AI, of pokeren ze alleen maar om hun positie?

In Mary Shelley’s roman Frankenstein; gebruikt de wetenschapper Victor Frankenstein dode lichaamsdelen om een hyperintelligent “bovenmenselijk” monster te creëren dat – gek geworden door menselijke wreedheid en isolatie – zich uiteindelijk tegen zijn schepper keert. Sinds de publicatie in 1818 wordt Shelley’s verhaal over wetenschappelijk onderzoek dat verkeerd afliep, gezien als een metafoor voor het gevaar (en de dwaasheid) van pogingen om machines te voorzien van menselijke intelligentie.

Shelley’s verhaal heeft een nieuwe weerklank gekregen met de snelle opkomst van generatieve kunstmatige intelligentie. Op 22 maart publiceerde het Future of Life Institute een open brief, ondertekend door honderden technologieleiders, waaronder Tesla CEO Elon Musk en Apple medeoprichter Steve Wozniak, waarin wordt opgeroepen tot een pauze van zes maanden (of een door de overheid opgelegd moratorium) in de ontwikkeling van AI-systemen die krachtiger zijn dan OpenAI’s onlangs uitgebrachte ChatGPT-4.

“AI-systemen met menselijk-competitieve intelligentie kunnen grote risico’s voor de samenleving en de mensheid opleveren”, aldus de brief, die momenteel door meer dan 25.000 mensen is ondertekend. De auteurs waarschuwen verder voor de “uit de hand gelopen” race “om steeds krachtigere digitale geesten te ontwikkelen en in te zetten die niemand – zelfs hun makers niet – kan begrijpen, voorspellen of betrouwbaar controleren.”

Medeoprichter van OpenAI

Musk, momenteel de op één na rijkste persoon ter wereld, is in veel opzichten de Victor Frankenstein van onze tijd. De in Zuid-Afrika geboren miljardair, die zo opschepperig is, heeft al geprobeerd het hele autorijden te automatiseren (zij het met gemengde resultaten), beweerde een nieuwe vervoerswijze uit te vinden met het (nog hypothetische) hyperloop-project van de Boring Company, en verklaarde dat hij van plan was “het licht van het bewustzijn te bewaren” door met zijn raketbedrijf SpaceX een kolonie op Mars te stichten.

Musk is toevallig ook medeoprichter van OpenAI (hij stapte in 2018 uit het bestuur van het bedrijf na een mislukte overnamepoging).

Een van Musks lievelingsprojecten is het combineren van AI en menselijk bewustzijn. In augustus 2020 toonde Musk een varken met een computerchip geïmplanteerd in zijn hersenen om de zogenaamde “brein-machine interface”, ontwikkeld door zijn tech startup Neuralink, te demonstreren.

Wanneer Gertrude het varken stro at of snoof, volgde een grafiek zijn neurale activiteit. Deze technologie, zei Musk, zou kunnen worden gebruikt om geheugenverlies, angst, verslaving en zelfs blindheid te behandelen. Maanden later bracht Neuralink een video uit van een aap die dankzij een geïmplanteerd apparaat met zijn geest een videospel speelde.

Deze stunts gingen gepaard met de gebruikelijke opschepperij van Musk. Hij hoopte dat de hersenvergrotingstechnologie van Neuralink een tijdperk van “bovenmenselijke cognitie” zou kunnen inluiden waarin computerchips die mentale functies optimaliseren op grote schaal (en goedkoop) beschikbaar zouden zijn. De procedure om ze te implanteren zou volgens hem volledig geautomatiseerd en minimaal invasief zijn. Elke paar jaar, als de technologie verbetert, kunnen de chips worden verwijderd en vervangen door een nieuw model. Dit is echter allemaal hypothetisch; Neuralink heeft nog steeds moeite om zijn testapen in leven te houden.

The Singularity Is Near

Terwijl Musk probeert cyborgs te maken, zouden mensen binnenkort vervangen kunnen worden door machines. In zijn boek uit 2005 The Singularity Is Near voorspelde futurist Ray Kurzweil dat de technologische singulariteit – het punt waarop AI de menselijke intelligentie overtreft – in 2045 zal plaatsvinden. Vanaf dat moment zou de technologische vooruitgang worden ingehaald door “bewuste robots” en exponentieel toenemen, wat een betere, postmenselijke toekomst zou inluiden.

Na de singulariteit zou, volgens Kurzweil, kunstmatige intelligentie in de vorm van zichzelf replicerende nanorobots zich over het universum kunnen verspreiden totdat het “verzadigd” raakt met intelligent (zij het synthetisch) leven. In navolging van Immanuel Kant noemde Kurzweil dit proces het “wakker worden” van het universum.

Maar nu de singulariteit er bijna is, lijken Musk en zijn bedrijf zich te bedenken. De release van ChatGPT vorig jaar heeft blijkbaar paniek veroorzaakt onder deze voormalige AI-evangelisten, waardoor ze niet langer de voordelen van superintelligente machines aanprijzen, maar uitzoeken hoe ze kunnen voorkomen dat ze de fout ingaan.

In tegenstelling tot de zoekmachine van Google, die gebruikers een lijst met links voorschotelt, kan ChatGPT vragen vloeiend en samenhangend beantwoorden. Onlangs vroeg een bevriende filosoof aan ChatGPT: “Is er een uitgesproken vrouwelijke stijl in morele filosofie?” en stuurde de antwoorden naar collega’s. Een van hen vond het “griezelig menselijk”. Zeker, schreef ze, “het is een vrij afgezaagd essay, maar het is tenminste duidelijk, grammaticaal en gaat in op de vraag, waardoor het beter is dan veel van de essays van onze studenten.”

De Turing-test

Met andere woorden, ChatGPT doorstaat de Turing-test en vertoont intelligent gedrag dat niet te onderscheiden is van dat van een mens. De technologie blijkt nu al een nachtmerrie te zijn voor academische docenten, en de snelle evolutie ervan suggereert dat de wijdverspreide toepassing ervan rampzalige gevolgen zou kunnen hebben.

Wat moet er dan gebeuren? In een recent beleidsdocument van het Future of Life Institute (dat deels door Musk wordt gefinancierd) worden verschillende manieren voorgesteld om de risico’s van AI te beheersen. De voorstellen omvatten het verplicht stellen van audits en certificering door derden, het reguleren van de toegang tot rekenkracht, het opzetten van “capabele” regelgevende instanties op nationaal niveau, het vaststellen van aansprakelijkheid voor schade veroorzaakt door AI, het verhogen van de financiering van veiligheidsonderzoek en het ontwikkelen van normen voor het identificeren en beheren van door AI gegenereerde inhoud.

Maar in een tijd van escalerende geopolitieke conflicten en ideologische polarisatie lijkt het hoogst onwaarschijnlijk dat kan worden voorkomen dat nieuwe AI-technologieën worden bewapend, laat staan dat overeenstemming kan worden bereikt over wereldwijde normen.

Hoewel het voorgestelde moratorium ogenschijnlijk bedoeld is om industrieleiders, onderzoekers en beleidsmakers de tijd te geven de existentiële risico’s van deze technologie te doorgronden en passende veiligheidsprotocollen te ontwikkelen, is er bovendien weinig reden om aan te nemen dat de huidige technologieleiders de ethische implicaties van hun creaties begrijpen.

In ieder geval is het onduidelijk wat een pauze in de praktijk zou betekenen. Musk, bijvoorbeeld, werkt naar verluidt al aan een AI startup die met OpenAI zou concurreren. Zijn onze hedendaagse Victor Frankensteins oprecht over het pauzeren van generatieve AI, of zijn ze slechts aan het wedijveren om hun positie?


Robert Skidelsky, lid van het Britse Hogerhuis, is emeritus hoogleraar politieke economie aan de Universiteit van Warwick.
Copyright: Project Syndicate, 2023.
www.project-syndicate.org

Meer