Niemand weet nog hoe ChatGPT en zijn neven en nichten op het gebied van kunstmatige intelligentie de wereld zullen transformeren, en een van de redenen is dat niemand echt weet wat er in hen omgaat. De mogelijkheden van sommige van deze systemen gaan veel verder dan waarvoor ze zijn opgeleid – en zelfs hun uitvinders weten niet waarom. Een groeiend aantal tests suggereert dat deze AI-systemen interne modellen van de echte wereld ontwikkelen, net zoals ons eigen brein dat doet, hoewel de techniek van de machines anders is.
“Alles wat we ermee willen doen om ze beter, veiliger of iets dergelijks te maken, lijkt me een belachelijk iets om onszelf af te vragen als we niet begrijpen hoe ze werken”, zegt Ellie Pavlick van Brown University, een van de onderzoekers die werkt aan het opvullen van die verklarende leemte.
Op een bepaald niveau begrijpen zij en haar collega’s GPT (afkorting van generatieve voorgetrainde transformator) en andere grote taalmodellen, of LLM’s, heel goed. De modellen zijn gebaseerd op een machine-learning systeem dat een neuraal netwerk wordt genoemd. Dergelijke netwerken hebben een structuur die losjes is gemodelleerd naar de verbonden neuronen van het menselijk brein. De code voor deze programma’s is relatief eenvoudig en vult maar een paar schermen. Het zet een autocorrectie-algoritme op, dat het meest waarschijnlijke woord kiest om een passage af te ronden op basis van moeizame statistische analyse van honderden gigabytes aan internettekst. Aanvullende training zorgt ervoor dat het systeem zijn resultaten presenteert in de vorm van een dialoog. In die zin is alles wat het doet uitbraken wat het heeft geleerd – het is een “stochastische papegaai”, in de woorden van Emily Bender, een taalkundige aan de Universiteit van Washington. Maar LLM’s zijn er ook in geslaagd om het bar-examen te halen, het Higgs-deeltje in jambische pentameter uit te leggen en een poging te doen om het huwelijk van hun gebruikers verbreken. Weinigen hadden verwacht dat een vrij eenvoudig autocorrectie-algoritme zulke brede mogelijkheden zou verwerven.
Dat GPT en andere AI-systemen taken uitvoeren waarvoor ze niet zijn opgeleid, waardoor ze “opkomende vaardigheden” krijgen, heeft zelfs onderzoekers verrast die over het algemeen sceptisch waren over de hype over LLM’s. “Ik weet niet hoe ze het doen of dat ze het meer in het algemeen zouden kunnen doen zoals mensen dat doen, maar ze hebben mijn opvattingen ter discussie gesteld”, zegt Melanie Mitchell, een AI-onderzoeker aan het Santa Fe Institute.
“Het is zeker veel meer dan een stochastische papegaai, en het bouwt zeker een representatie van de wereld op – hoewel ik niet denk dat het lijkt op hoe mensen een intern wereldmodel bouwen”, zegt Yoshua Bengio, een AI-onderzoeker aan de universiteit. van Montréal.
Tijdens een conferentie aan de New York University in maart gaf filosoof Raphaël Millière van Columbia University weer een verbluffend voorbeeld van wat LLM’s kunnen doen. De modellen hadden al aangetoond dat ze computercode konden schrijven, wat indrukwekkend is maar niet zo verrassend omdat er zoveel code op internet is om na te bootsen. Millière ging nog een stap verder en liet zien dat GPT ook code kan uitvoeren. De filosoof typte een programma in om het 83e getal in de Fibonacci-reeks te berekenen. “Het is een meerstaps redenering van een zeer hoge graad”, zegt hij. En de bot heeft het genageld. Toen Millière echter rechtstreeks om het 83e Fibonacci-getal vroeg, had GPT het bij het verkeerde eind: dit suggereert dat het systeem niet alleen het internet aan het napraten was. Het voerde eerder zijn eigen berekeningen uit om tot het juiste antwoord te komen.
Hoewel een LLM op een computer draait, is het zelf geen computer. Het mist essentiële computationele elementen, zoals werkgeheugen. In een stilzwijgende erkenning dat GPT alleen geen code zou moeten kunnen uitvoeren, heeft de uitvinder, het technologiebedrijf OpenAI, sindsdien een gespecialiseerde plug-in geïntroduceerd – een tool die ChatGPT kan gebruiken bij het beantwoorden van een vraag – waarmee het dit kan doen. . Maar die plug-in werd niet gebruikt in de demonstratie van Millière. In plaats daarvan veronderstelt hij dat de machine een geheugen heeft geïmproviseerd door zijn mechanismen te gebruiken om woorden te interpreteren volgens hun context – een situatie die vergelijkbaar is met hoe de natuur bestaande capaciteiten hergebruikt voor nieuwe functies.
Dit geïmproviseerde vermogen toont aan dat LLM’s een interne complexiteit ontwikkelen die veel verder gaat dan een oppervlakkige statistische analyse. Onderzoekers ontdekken dat deze systemen echt begrip lijken te krijgen van wat ze hebben geleerd. In een studie die vorige week werd gepresenteerd op de International Conference on Learning Representations (ICLR), promovendus Kenneth Li van Harvard University en zijn AI-onderzoekers-collega’s Aspen K. Hopkins van het Massachusetts Institute of Technology, David Bau van Northeastern University en Fernanda Viégas , Hanspeter Pfister en Martin Wattenberg, allemaal op Harvard, hebben hun eigen kleinere kopie van het neurale netwerk van de GPT gemaakt, zodat ze de innerlijke werking ervan konden bestuderen. Ze trainden het op miljoenen wedstrijden van de bordspel Othello door lange reeksen zetten in tekstvorm in te voeren. Hun model werd een bijna perfecte speler.
Om te bestuderen hoe het neurale netwerk informatie codeert, gebruikten ze een techniek die Bengio en Guillaume Alain, ook aan de Universiteit van Montreal, in 2016 bedachten. Ze creëerden een miniatuur “sonde” -netwerk om het hoofdnetwerk laag voor laag te analyseren. Li vergelijkt deze benadering met neurowetenschappelijke methoden. “Dit is vergelijkbaar met wanneer we een elektrische sonde in het menselijk brein steken”, zegt hij. In het geval van de AI toonde de sonde aan dat zijn “neurale activiteit” overeenkwam met de weergave van een Othello-spelbord, zij het in een ingewikkelde vorm. Om dit te bevestigen, lieten de onderzoekers de sonde in omgekeerde volgorde lopen om informatie in het netwerk te implanteren, bijvoorbeeld door een van de zwarte markeringsstukken van het spel om te draaien naar een witte. “Kortom, we hacken het brein van deze taalmodellen”, zegt Li. Het netwerk paste zijn bewegingen dienovereenkomstig aan. De onderzoekers concludeerden dat het Othello min of meer als een mens speelde: door een spelbord voor ogen te houden en dit model te gebruiken om zetten te evalueren. Li zegt dat hij denkt dat het systeem deze vaardigheid leert omdat het de meest karige beschrijving is van zijn trainingsgegevens. “Als je heel veel spelscripts krijgt, is het proberen om de regel erachter te achterhalen de beste manier om te comprimeren”, voegt hij eraan toe.
Dit vermogen om de structuur van de buitenwereld af te leiden, is niet beperkt tot eenvoudige spelbewegingen; het verschijnt ook in dialoog. Belinda Li (geen familie van Kenneth Li), Maxwell Nye en Jacob Andreas, allemaal aan het MIT, bestudeerden netwerken die een op tekst gebaseerd avonturenspel speelden. Ze voerden zinnen in als ‘De sleutel zit in de schatkist’, gevolgd door ‘Jij neemt de sleutel’. Met behulp van een sonde ontdekten ze dat de netwerken in zichzelf codeerden voor variabelen die overeenkomen met ‘borst’ en ‘jij’, elk met de eigenschap een sleutel te bezitten of niet, en deze variabelen zin voor zin bij te werken. Het systeem had geen onafhankelijke manier om te weten wat een doos of sleutel is, maar het pikte de concepten op die het nodig had voor deze taak. “Er is een weergave van de staat verborgen in het model”, zegt Belinda Li.
Onderzoekers verbazen zich over hoeveel LLM’s uit tekst kunnen leren. Pavlick en haar toenmalige Ph.D. student Roma Patel ontdekte dat deze netwerken kleurbeschrijvingen uit internettekst absorberen en interne representaties van kleur construeren. Als ze het woord ‘rood’ zien, verwerken ze het niet alleen als een abstract symbool, maar als een concept dat een bepaalde relatie heeft met kastanjebruin, karmozijnrood, fuchsia, roest, enzovoort. Dit aantonen was wat lastig. In plaats van een sonde in een netwerk te steken, bestudeerden de onderzoekers de reactie op een reeks tekstprompts. Om te controleren of het alleen maar kleurrelaties uit online referenties weergalmde, probeerden ze het systeem verkeerd te sturen door het te vertellen dat rood in feite groen is – zoals het oude filosofische gedachte-experiment waarin het rood van de een het groen van de ander is. In plaats van een onjuist antwoord na te praten, veranderden de kleurevaluaties van het systeem dienovereenkomstig om de juiste relaties te behouden.
Op basis van het idee dat het systeem, om zijn autocorrectiefunctie uit te voeren, de onderliggende logica van zijn trainingsgegevens zoekt, suggereert machine learning-onderzoeker Sébastien Bubeck van Microsoft Research dat hoe breder het bereik van de gegevens, hoe algemener de regels van het systeem. zal ontdekken. “Misschien zien we zo’n enorme sprong omdat we een diversiteit aan gegevens hebben bereikt, die zo groot is dat het enige onderliggende principe is dat intelligente wezens ze hebben geproduceerd”, zegt hij. “En dus is de enige manier om al deze gegevens te verklaren [for the model] intelligent worden.”
Naast het extraheren van de onderliggende betekenis van taal, kunnen LLM’s direct leren. Op het gebied van AI wordt de term ‘leren’ meestal gereserveerd voor het rekenintensieve proces waarin ontwikkelaars het neurale netwerk blootstellen aan gigabytes aan gegevens en de interne verbindingen aanpassen. Tegen de tijd dat u een vraag in ChatGPT typt, zou het netwerk gerepareerd moeten zijn; in tegenstelling tot mensen, zou het niet moeten blijven leren. Het kwam dus als een verrassing dat LLM’s in feite leren van de aanwijzingen van hun gebruikers – een vaardigheid die bekend staat als ‘in-context leren’. “Het is een ander soort leren dat voorheen niet echt bestond”, zegt Ben Goertzel, oprichter van het AI-bedrijf SingularityNET.
Een voorbeeld van hoe een LLM leert, komt van de manier waarop mensen omgaan met chatbots zoals ChatGPT. U kunt het systeem voorbeelden geven van hoe u wilt dat het reageert, en het zal gehoorzamen. De output wordt bepaald door de laatste paar duizend woorden die het heeft gezien. Wat het doet, gegeven die woorden, wordt voorgeschreven door zijn vaste interne verbindingen – maar de woordvolgorde biedt niettemin enige aanpassingsvermogen. Hele websites zijn gewijd aan “jailbreak”-prompts die de “vangrails” van het systeem omzeilen – beperkingen die voorkomen dat het systeem gebruikers bijvoorbeeld vertelt hoe ze een pijpbom moeten maken – meestal door het model te laten doen alsof het een systeem zonder vangrails is. Sommige mensen gebruiken jailbreaking voor vage doeleinden, weer anderen gebruiken het om creatievere antwoorden te krijgen. “Het zal wetenschappelijke vragen beantwoorden, zou ik zeggen, beter” dan wanneer je het gewoon rechtstreeks vraagt, zonder de speciale jailbreak-prompt, zegt William Hahn, mededirecteur van het Machine Perception and Cognitive Robotics Laboratory aan de Florida Atlantic University. “Het is beter op de beurs.”
Een ander type van in-context leren vindt plaats via ‘chain of thought’-prompts, wat betekent dat het netwerk wordt gevraagd om elke stap van zijn redenering te spellen – een tactiek waardoor het beter presteert bij logische of rekenkundige problemen die meerdere stappen vereisen. (Maar één ding dat het voorbeeld van Millière zo verrassend maakte, is dat het netwerk het Fibonacci-getal vond zonder enige vorm van coaching.)
In 2022 toonden een team van Google Research en het Zwitserse Federale Instituut voor Technologie in Zürich – Johannes von Oswald, Eyvind Niklasson, Ettore Randazzo, João Sacramento, Alexander Mordvintsev, Andrey Zhmoginov en Max Vladymyrov – aan dat in-context leren dezelfde rekenkundige basis volgt. procedure als standaard leren, bekend als gradiëntafdaling. Deze procedure was niet geprogrammeerd; het systeem ontdekte het zonder hulp. “Het zou een aangeleerde vaardigheid moeten zijn”, zegt Blaise Agüera y Arcas, vice-president bij Google Research. Hij denkt zelfs dat LLM’s andere latente vermogens hebben die nog niemand heeft ontdekt. “Elke keer dat we testen op een nieuwe vaardigheid die we kunnen kwantificeren, vinden we die”, zegt hij.
Hoewel LLM’s genoeg blinde vlekken hebben om niet te kwalificeren als kunstmatige algemene intelligentie, of AGI – de term voor een machine die de vindingrijkheid van dierenhersenen bereikt – suggereren deze opkomende vaardigheden voor sommige onderzoekers dat technologiebedrijven dichter bij AGI staan dan zelfs optimisten hadden geraden. “Ze zijn indirect bewijs dat we waarschijnlijk niet zo ver verwijderd zijn van AGI”, zei Goertzel in maart op een conferentie over deep learning aan de Florida Atlantic University. De plug-ins van OpenAI hebben ChatGPT een modulaire architectuur gegeven die een beetje lijkt op die van het menselijk brein. “GPT-4 combineren [the latest version of the LLM that powers ChatGPT] met verschillende plug-ins zou een route kunnen zijn naar een menselijke specialisatie van functies”, zegt MIT-onderzoeker Anna Ivanova.
Tegelijkertijd maken onderzoekers zich echter zorgen dat het venster mogelijk sluit voor hun vermogen om deze systemen te bestuderen. OpenAI heeft geen details bekendgemaakt over hoe het GPT-4 heeft ontworpen en getraind, deels omdat het in concurrentie zit met Google en andere bedrijven, om nog maar te zwijgen van andere landen. “Waarschijnlijk zal er minder open onderzoek vanuit de industrie komen en zullen de zaken meer geïsoleerd en georganiseerd worden rond het bouwen van producten”, zegt Dan Roberts, een theoretisch fysicus aan het MIT, die de technieken van zijn beroep toepast om AI te begrijpen.
En dit gebrek aan transparantie schaadt niet alleen onderzoekers; het belemmert ook de inspanningen om de sociale gevolgen te begrijpen van de haast om AI-technologie toe te passen. “Transparantie over deze modellen is het belangrijkste om de veiligheid te waarborgen”, zegt Mitchell.