Wat Large Language Models kunnen betekenen voor marktonderzoek

Siri op steroïden of de toekomst van de industrie? We bespreken de potentiële toepassingen en beperkingen van Large Language Models.
22 december 2023
LMMs AI hub

Tenzij je, zoals Jared Leto, op een stilte retraite was en niet besefte dat er een wereldwijde pandemie was, ben je op de hoogte dat ChatGPT, Bard en al hun neven momenteel in het middelpunt van de belangstelling staan. Zelfs Bill Gates heeft verklaard dat 'het tijdperk van AI is begonnen'.

Maar laten we, voordat we ons storten op alle mogelijke radicale toepassingen van de technologie voor de marktonderzoeksindustrie, bij het begin beginnen: Wat zijn Large Language Models eigenlijk? Simpel gezegd zijn Large Language Models (LLM's) ontworpen om het volgende woord of zinsdeel in een reeks te voorspellen. Met veel blootstelling aan grote datasets kunnen deze modellen statistische relaties tussen woorden leren doordat deze gelijktijdig voorkomen. Zoals in dit voorbeeld:

Welk type melk wil je in je koffie? We hebben haver, amandel, soja en koemelk. 

Ik had gewoon zin in een lekkere kop koffie met melk. 

De woorden melk en koffie worden als semantisch verwant beschouwd omdat ze vaak buren zijn. Dit 'begrip' van relaties op massale schaal stelt de modellen in staat taken op te lossen op een schijnbaar surreëel niveau van bekwaamheid - terwijl ze monden doen openvallen en niet-aflatende hype over verstoring van de industrie op LinkedIn veroorzaken.

Hoe fascinerend ook, het gaat hier niet om het daadwerkelijk begrijpen; het is statistische associatie. LLM's zijn nog geen bewuste wezens, en we zijn nog niet aangekomen bij Kunstmatige Algemene Intelligentie - de tijd waarin een machine taken op intellectueel niveau zal kunnen begrijpen of leren, zoals een mens dat zou doen.

Wat zijn dan de potentiële toepassingen voor de marktonderzoeksindustrie? 

Er zijn veel spannende en vooruitstrevende gebruiksmogelijkheden voor de marktonderzoeksindustrie, waarvan we sommige al gebruiken, en met andere actief bezig zijn bij Kantar. Hier zijn slechts een paar voorbeelden:

  • Samenvatten: marktonderzoek verzamelt veel gegevens in de vorm van woorden – enquête woordelijk, kwalitatieve interviews en focusgroepen. LLM's kunnen antwoorden samenvatten, ordenen en prioriteren, waardoor het werk van de onderzoeker bij het creëren van een verhaal voor de klant wordt versneld.
  • Geautomatiseerde rapportage: marktonderzoek produceert ook grote hoeveelheden kwantitatieve gegevens die gesorteerd, samengevat en gepresenteerd moeten worden. LLM's kunnen snel conceptuele koppen maken op basis van grafieken, tabellen, modellen en samenvattingen.
  • Identificatie van onderwerpen/thema's: door verschillende attitudinale datasets of open API's naar digitale platforms te gebruiken, kunnen LLM's thema's identificeren, sentiment, affiniteit en merkpercepties beoordelen voor de onderzoeker om te verfijnen.
  • Voorspelling: LLM's kunnen inbedding (wiskundige representaties) extraheren die andere machine learning modellen kunnen gebruiken om een bepaalde gewenste uitkomsten te voorspellen. Bijvoorbeeld, kan de dialoog in een tv-reclame helpen om de prestaties ervan te voorspellen? Hoe kunnen we de kwalitatieve ervaring van mensen bij het interacteren met een servicevertegenwoordiger relateren aan hun merkloyaliteit of klantverloop?
  • Intelligent interviewen: al in gebruik door de industrie, zal conversationele AI grote sprongen vooruit maken door te reageren op eerdere antwoorden en vragen dienovereenkomstig te routeren. Het ontwerpen van kwantitatieve vragenlijsten zal nooit meer hetzelfde zijn; de machine kan helpen bij het automatiseren en standaardiseren van het proces!
  • Tekstgegevens reinigen: schoonmaken is een groot deel van het operationele proces - LLM's kunnen controleren op onzin en spelfouten, veel beter dan autocorrect ooit deed!
  • Creatief schrijven: dit kan van alles zijn, van het maken van discussiegidsen, eerste versies van presentaties, marketingteksten en conceptverklaringen tot [voeg hier je wildste idee in].
  • Conversatie zoekopdrachten: denk aan 'een intelligente agent' die bovenop gegevensplatforms zit waarop je natuurlijke menselijke taal kunt gebruiken om vragen te stellen. De agent analyseert dan potentieel enorme databases 'onderliggend' en haalt de resultaten terug in natuurlijke taal. Siri op steroïden!

Wat zijn dan de risico's van LLM's? 

Er zijn verschillende bekende risico's die we zien in de marktonderzoeksindustrie. Eén ervan is dat het model dingen begint te verzinnen of 'hallucineren'. We hebben dit gezien bij voorbeelden van tijdreeksen waarbij de vorige versie van ChatGPT verkeerde antwoorden gaf omdat het slechts was bijgewerkt tot 2021. LLM's hebben ook geen 'kennis van kennis', dus er is geen sprake van een vertrouwensniveau. LLM's hebben geen besef van tijd of temporaliteit, of van wiskunde, wat op regels gebaseerd is. Hierdoor zijn ze momenteel beperkt in hun interpretatie van gegevens tot wat ze kunnen afleiden via generieke correlaties of associaties. 

Er zijn ook duidelijke juridische en ethische kwesties die naar voren komen. Intellectueel eigendom bijvoorbeeld: is dit een creatieve daad door het LLM, of is het een herhaling van iemand anders' IP? Betekent het delen van je eigen gegevens op het open web dat je toestemming geeft voor het gebruik ervan door LLM's? En tot slot kunnen de kwaliteit van de datasets die de modellen gebruiken gemakkelijk vooroordelen en stereotypen versterken zonder het te 'weten'.

Onze conclusie 

Large Language Models bieden immense mogelijkheden voor de marktonderzoeksindustrie. Ze kunnen echter rollen en verantwoordelijkheden verstoren terwijl ze sommige processen versnellen, andere verbeteren en nieuwe kansen creëren. Marktonderzoek- en dataorganisaties moeten zich ervan verzekeren wat hun positie is ten opzichte van de risico's voordat ze grootschalige projecten starten. 

We voorspellen dat er drie soorten gebruiksmogelijkheden zullen zijn voor LLM's in marktonderzoek:

  1. Om sommige dingen efficiënter te maken: bijvoorbeeld geen handmatige codering van open eindes meer.
  2. Om sommige dingen beter te doen: bijvoorbeeld het vermogen om een miljoen tweets te verwerken, emoties te extraheren en bijvoorbeeld klantverloop te voorspellen - iets wat een mens niet kan.
  3. Nieuwe mogelijkheden creëren: bijvoorbeeld een machine vragen om 10 versies van een concept te maken, een andere machine gebruiken om elk ervan te evalueren en de beste te kiezen. 

Bij Kantar hebben we een rijke geschiedenis van het gebruik van taalmodellen in de afgelopen 10 jaar binnen al onze werkzaamheden, en meer in het algemeen van het gebruik van Machine Learning en AI om veel van onze producten en oplossingen te verbeteren. Inclusief onze advertentie testende oplossing Link AI. Link AI heeft een solide basis van trainingsgegevens van meer dan 250.000 advertenties getest met mensen. We voeren ook werkstroompilots uit voor nieuwe gebruiksmogelijkheden met behulp van de nieuwste generatieve AI-modellen en verkennen schaalbare LLM-mogelijkheden met partners. Spannende tijden. Neem contact met ons op om te bespreken hoe LLM's de toekomst van de marktonderzoeksindustrie kunnen vormen.

 

Een beknopte geschiedenis van taalmodellen (Sorry, Hawking!)

We weten dat je het weet, maar voor het geval dat je het niet echt weet, zijn parameters de 'bewegende delen' binnen een model - hoe meer parameters een model heeft, hoe complexer het is en hoe meer gegevens het vereist. Maar hoeveel? Dat is exponentieel veranderd in het afgelopen decennium en zal opnieuw veranderen.

Fase 1 (circa 2013) – Er ontstaan woordinsluitingen. Machines konden nu, voor de eerste keer, elk woord in de Engelse taal vertegenwoordigen als een verzameling getallen! En deze getallen leken 'betekenis' vast te leggen - de machine zou een vergelijkbare insluiting geven voor de woorden ‘king’ en ‘queen', bijvoorbeeld, die verschillend zou zijn van de insluiting van het woord 'bank'. De vroege woordinsluitingen vertrouwden op eenvoudige modelarchitecturen met een relatief bescheiden aantal 'parameters' in de regio van 30 miljoen tot 100 miljoen. Hoewel deze verder modellering en afstemming vereisten voor specifieke taken, ontwikkelden ze het veld van tekstanalyse.

Fase 2 (2014 - 2018) – Een probleem met vroege woordinsluitingen was dat ze woorden vertegenwoordigden zonder context in overweging te nemen - hetzelfde woord kan verschillende betekenissen hebben afhankelijk van de andere woorden in de zin. Contextuele insluitingen verschijnen rond 2018 en kunnen grote tekstreeksen verwerken als reeksen van woorden. Deze modellen gebruiken een groter bereik van parameters tussen 100 miljoen en 300 miljoen - en je hebt het geraden, deze vereisen nog steeds wat scherpstelling voordat ze op specifieke zaken kunnen worden toegepast.

Fase 3 – Vandaag zien we Large Foundation Models die zijn getraind op enorme datasets op schaal - waaronder GPT-4, ChatGPT, Bard en hun toekomstige neven - die werken met meer dan 175 miljard parameters. En ja, dit is het echte werk! Al deze modellen zijn 'plug and play'; ze hebben niet veel of geen aanvullende training nodig om specifieke taken uit te voeren.