IA: de Intelligente Assistent
Het computerscherm verdwijnt steeds verder uit ons leven. Dat is goed, want goede techniek moet onzichtbaar zijn. Goede techniek heeft intuïtieve interactie en stelt de mens voorop. De computers verdween in de jaren zeventig diep in datacenters en wij werkten via de desktop op afstand met hen. De laptop maakte ons mobiel. Hoewel je voor het gebruik nog wel moest gaan zitten. De mobiele telefoon loste de noodzaak tot zitten op en bracht de computer in onze hand en broekzak. Met als klein verlengstuk de smartwatch. Maar wat wordt de volgende stap? Verdwijnt het scherm uit het zicht? Wordt het een virtuele, intelligente assistent die realtime met ons meekijkt, meedenkt en zonder scherm met ons communiceert? Afgelopen week zag ik een leuke TED-talk van Imran Chaudhri, die van 1995 tot 2016 bij Apple Design Lead was voor de hardware/software user experience voor Macintosh, iPod, iPad, Apple Watch and iPhone. In 2019 richtte hij het bedrijf Hu.ma.ne op, gericht op ‘Good AI is Humane’. Hun uitgangspunt is dat techniek zo gemaakt moet zijn, dat het de mens dient. Niet andersom. Door bij het ‘ontwerp’ mensen en menselijk gebruik op de eerste plaats zetten. Eigenlijk de basis van denken in (menselijke) architecturen. ‘AI’ zo doordacht in een ontwerp te gebruiken, dat het een genot wordt om te gebruiken. ‘AI’ te gebruiken om de mensheid te verheffen in plaats van te overweldigen. ‘AI’ gebruiken om apparaten te laten verdwijnen, zoals hij in deze TED-talk laat zien. Een nieuwe sprong in het ontwerp van apparaten.
Een interessante visie gedurende de huidige ChatGPT hype die vooral ethische vragen oproept. Een gigantische verzamelmachine die alle data die men te pakken krijgt, gebruikt om via biljoenen parameters, slimme antwoorden en resultaten op elke vraag te kunnen geven. Een prachtige innovatie, maar het is momenteel eerder een gigantische datamodel dat niet alleen duur was om te maken maar ook om te gebruiken. Sam Altman, CEO van OpenAI, verklaarde tijdens een recent MIT evenement dat het tijdperk van gigantische AI modellen zoals GPT-4 ten einde loopt. De toekomstige vooruitgang in AI heeft nieuwe ideeën nodig heeft. Niet nog grotere modellen en nog meer parametergroei. Ook omdat de toegang tot gegevens moeilijker en duurder wordt door copyright, privacy, encryptie, geopolitiek, vervuilde data en betaald data-gebruik. Net zoals Concorde en 747 uiteindelijk te duur bleken door hun enorme snelheid en omvang.
Mede oprichtster naast Imran is Bethany Bongiorno, van 2008 tot 2016 bij Apple director software engineering en betrokken bij de ontwikkeling van macOS en iOS. Zij speelde een belangrijke rol bij de lancering van de originele iPad. Nieuwe vormen van Machine Learning en AI maken toekomstige apparaten slimmer en persoonlijker. Beslist ‘anders’ dan wat we ons nu ‘kunnen’ voorstellen. Net zoals de eerste iPhone en iPad de ervaring van mobiele apparaten definitief veranderde, zien zij net zo’n toekomst voor persoonlijke AI devices, die menselijk interacteren. Ons op een nieuwe wijze in ons dagelijks leven ondersteunen.
Diverse strategische investeerders zijn al ingestapt, van Microsoft tot Volvo en van LG tot Sam Altman zelf, de oprichter van Open AI. Zoals Imran aangeeft: “Ons eerste apparaat stelt mensen in staat om AI op een persoonlijke wijze overal mee naartoe te nemen. Het is een opwindende tijd en we hebben ons gefocust op het bouwen van een platform en apparaat dat de ware kracht en het potentieel van deze technologie volledig kan benutten. We staan aan het begin van het volgende computertijdperk. We geloven dat we intussen de reis kunnen beginnen om de rol van AI technologie in het leven van mensen fundamenteel te hervormen.”
De afgelopen jaren zagen we de opkomst van virtuele assistenten. Een virtuele assistent als software-agent, die taken voor een gebruiker uitvoert op basis van gebruikersinvoer, zoals opdrachten of vragen. Deze technieken zijn meestal gebaseerd op chatbots om menselijke gesprekken te simuleren en interactie met gebruikers te vergemakkelijken. Interactie via tekst, grafische interface of stem. Sommige virtuele assistenten interpreteren menselijke spraak en reageren via gesynthetiseerde stemmen. Afgelopen jaren waren Amazon’s Alexa, Apple’s Siri, Microsoft’s Cortana en Google Assistant de prominenste virtuele assistenten.
Al in 1952 creëerde Bell Labs ‘Audry’, een cijferherkenningsmachine die spraakgestuurde nummerkeuze mogelijk maakte. In 1961 introduceerde IBM ‘Shoebox‘ die nummers en 16 gesproken woorden kon herkennen. De meest bekende chatbot uit die tijd is ELIZA van het MIT, ontwikkeld door professor Joseph Weizenbaum. De ervaring met ELIZA was al dat mensen toen reeds dachten dat zij met de computer een echt gesprek voerden. In plaats van zich te realiseren dat zij slechts tegen een onpersoonlijke machine spraken die geen enkel besef had ‘wat’ zij vertelden en bespraken. Het ELIZA-effect, de neiging om onbewust aan te nemen dat computergedrag analoog is aan menselijk gedrag: antropomorfisering, een fenomeen dat aanwezig is in menselijke interacties met virtuele speeltjes en assistenten.
In de jaren negentig werd spraakherkenning serieus. Een kenmerk van de personal computer en in 1994 de basis voor de smartphone van IBM: Simon de eerste virtuele assistent. De voorloper van Watson. De ‘Naturally Speaking‘ software van Dragon was in 1997 de eerste commercieel succesvolle spraakassistent, vooral gebruikt door artsen in de VS en UK om medische dossiers te documenteren. De eerste moderne assistent was Siri, ontwikkeld door Siri Inc. een spin-off van SRI International, een onderzoeksinstituut gefinancierd door DARPA en het Amerikaanse ministerie van Defensie. In 2010 nam Apple het bedrijf over en Siri werd op 4 oktober 2011 geïntroduceerd op de iPhone. In november 2014 kondigde Amazon naast Echo ook de assistent Alexa aan.
Pas afgelopen jaren won kunstmatige intelligentie aan populariteit. In 2020 introduceerde Microsoft zijn Turing Natural Language generation, toen het grootste taalmodel met 17 miljard parameters. Op 30 november 2022 werd ChatGPT als prototype gelanceerd en oogstte snel populariteit. In februari 2023 introduceerde Google ‘Bard’, gebaseerd op zijn LaMDA AI programma om tekstantwoorden te genereren op gestelde vragen. Hoewel al erg intelligent lijkend, zijn het nog steeds cloud gebaseerde virtuele assistenten gespecialiseerd om verschillende soorten taken uit te voeren. En ze werken nog steeds via ingevoerde tekst, herkende spraak en door foto’s te maken en te uploaden. Vervolgens wordt NLP (natuurlijke taalverwerking) gebruikt om uit de invoer een uitvoerbare en begrijpelijke opdracht te destilleren.
Intelligente assistenten zullen decentraler en persoonlijker zijn. Een soort ‘my virtual self’ die je altijd vergezelt. Het concept van de digitale tweeling dat al in de jaren zeventig tijdens (de problemen bij) de Apollo-reizen werd ontwikkeld. Een draagbare virtuele equivalent van onszelf die ook meeleeft in de ons omringende digitale wereld. Onze digitale soevereine identiteit is die overeenkomt met de identiteit van de (menselijke) gebruiker zelf. Dat is het idee achter de metaverse: nieuwe digitale galaxies waar onze ‘digital twin’ als persoonlijke intelligente assistent aanwezig is om ons als fysieke mens in die virtuele wereld te ondersteunen. Imran en Bethany zoeken de nieuwe ‘iPhone’. Een device, een broche, iets dat we ons nog niet kunnen voorstellen.
Maar als het er komt, zullen we het gelijk herkennen en willen dragen en gebruiken. Er ligt hen een mooie ontdekkingstocht voor de boeg . . .