Auteur: Rik Marselis ● Rik@Marselis.eu ● @rikmarselis
Redactie: Kimberly Snoyl en Rachid Benallal
Bij het lezen van de titel van deze column had je misschien niet gelijk een idee waar het over gaat. Maar als ik je vertel dat de meeste generatieve transformatoren vooraf getraind zijn, dus in het engels Generative Pre-trained Transformers, en dat de afkorting GPT is, dan wordt het vast al duidelijker. GPT is de “motor” van ChatGPT, de hype van dit moment.
ChatGPT heeft kunstmatige intelligentie naar het grote publiek gebracht. En samen met andere generatieve transformatoren zoals DALL-e (plaatjes) en Midjourney (videos) heeft het een enorme impact.
De kwaliteit van de gegenereerde tekst, plaatjes en video’s is zo hoog dat het nauwelijks (of soms echt niet) meer is vast te stellen of het door een mens danwel een machine gemaakt is.
Deze generatieve transformatoren slagen glansrijk voor de Turing-test, in de jaren 50 door Alan Turing (de maker van de eerste computer in 1942) opgesteld om te kunnen vaststellen of een computer zo goed is dat je het verschil tussen mens en computer niet meer merkt.
Enige tijd geleden mocht ik een workshop doen met een Agile team. Als opstarter vroeg ik wat ‘werken met een Agile mindset’ eigenlijk betekent. Tegelijk vroeg ik het aan ChatGPT. Het antwoord van ChatGPT was duidelijker en completer dan de gezamenlijke antwoorden van alle teamleden bij elkaar.
Is dit nou een goede of een slechte ontwikkeling?
Het is knap wat generatieve transformatoren kunnen. Als je even een uniek kaartje wilt maken voor een verjaardagsfeest is dat met DALL-e een fluitje van een cent.
Maar het is ook beangstigend. Stel je voor dat jij een rechter bent, en tegenover je staan twee partijen die beiden een video van dezelfde gebeurtenis laten zien. Maar de video’s zijn verschillend. Welke video geeft dan de waarheid? Wie moet je geloven? Wat is nog de waarde van bewijs?
Voordelen
Middelbare scholieren schijnen al in grote getalen hun huiswerk met (of door) ChatGPT te maken. Onderwijzers moeten daar mee om leren gaan. Vergelijk het met de komst van Internet. Voordat er internet was, moest een scholier een boek lezen en een uittreksel schrijven. Toen je op internet makkelijk uittreksels kon opzoeken werd de opdracht van de leraar: zoek 3 uittreksels en vertel welke het beste is en waarom. Nu kan de opdracht zijn: laat ChatGPT zowel een positieve als een negatieve beoordeling van het boek schrijven en vertel welke van de twee meer waarheidsgetrouw is en waarom.
Ook handig is deze technologie als je even een leuk videootje van je vakantie wilt maken, upload dan wat videofragmenten en vraag de generatieve transformator daar een leuk filmpje van een paar minuten van te maken, met passende rechtenvrije achtergrondmuziek. Ideaal!
Nadelen
Zoals hierboven al aangehaald: het wordt bijzonder moeilijk om te bepalen wat je wel en niet voor waar kunt aannemen. De mogelijkheden van misbruik zijn net zo eindeloos als de leuke mogelijkheden. Justitie en Politie maken zich nu al zorgen over criminelen die ChatGPT en dergelijke gebruiken om via natuurlijke taal opdracht te geven tot het schrijven van malware.
En wat zou jij doen als je via whatsapp een video van je kind krijgt die huilend aan je vraagt om wat geld over te maken omdat hij/zij op vakantie alle pasjes en telefoon is kwijtgeraakt?
Hoe nu verder?
Zijn we dus de pineut nu generatieve transformatoren dit allemaal kunnen (en heel snel nog veel meer gaan kunnen)?
We kunnen het verbieden (zoals Italië heeft gedaan op basis van privacy-regels) of pauzeren (waartoe 1100 wetenschappers hebben opgeroepen). Maar iets dat ontdekt is kun je niet meer ont-ontdekken. Dus we zullen ermee moeten leren leven.
En daar ligt onder andere voor ons, als kwaliteitsbewuste IT-ers met testkennis, een schone taak. Wij kunnen van dit soort nieuwe ontwikkelingen de kwaliteits-risico’s in kaart brengen. Bijvoorbeeld door te kijken naar de kwaliteitsattributen van de ISO25010 standaard, uitgebreid met de specifieke attributen voor Kunstmatige Intelligentie en Robotica (zie hiervoor https://www.tmap.net/wiki/machine-intelligence-quality-characteristics of het boek “Testing in the digital age – AI makes the difference”).
Verder zijn verschillende regulerende instanties al aan het broeden op manieren om het gebruik van AI in het algemeen, en generatieve transformatoren in het bijzonder, in goede banen te leiden.
Met die kwaliteitsattributen en de regulerende richtlijnen in onze bagage kunnen wij organisaties ondersteunen bij het inventariseren van kwaliteitsrisico-niveaus en het mitigeren van de onaanvaardbare risico’s. Want zoals altijd is het verschaffen van inzicht en informatie de kerntaak van testers, onafhankelijk van wat de toepassing van IT-systemen is.
Het komt goed
Ik vertrouw erop dat we over 10 jaar net zo gewend zijn aan hoe we met de mogelijkheden en risico’s van generatieve transformatoren moeten omgaan, als dat we vandaag de dag met Internet omgaan (want toen het world wide web vanaf 1993 ons leven binnenrolde was er ook een hoop onrust over de mogelijke gevaren).
Het enige dat nieuw is, en daardoor lastig, is de snelheid waarmee de generatieve transformatoren in ons leven komen. Daarom is mijn tip aan jou: lees regelmatig artikelen en blogs, kijk video’s en vlogs, en probeer het zelf uit. Hoe meer je ervan weet, hoe beter je met de gevaren om kunt gaan en tegelijk zelf generatieve transformatoren toepassen om jouw leven nog een stukje aangenamer te maken!
Veel plezier met genereren 🙂