Van onschuldige chatbots naar PR nachtmerrie
Van onschuldige chatbots naar PR nachtmerrie
Gepubliceerd op: 20-07-2025
Het lijkt zo’n goed idee: een chatbot die jouw organisatie toegankelijker maakt, 24/7 vragen beantwoordt en misschien zelfs een beetje humor toevoegt aan je online identiteit. Kunstmatige intelligentie opent nieuwe deuren in klantcontact. Maar wat als diezelfde technologie ineens de deuren naar een crisis wagenwijd openzet?
De geschiedenis heeft al een paar pijnlijke lessen opgeleverd. In 2016 lanceerde Microsoft de chatbot Tay, bedoeld als een vrolijke tienerbot die met mensen op Twitter zou praten en zo ‘lerend’ zou communiceren. Binnen 16 uur veranderde Tay van een frisse innovatie in een PR-nachtmerrie. Door slimme en provocerende tweets van gebruikers begon Tay zelf racistische en seksistische uitspraken te plaatsen. Microsoft moest de chatbot halsoverkop offline halen en bood excuses aan. Het incident liet niet alleen zien hoe kwetsbaar AI-systemen kunnen zijn voor misbruik, maar ook hoe snel de uitspraken van een bot worden gezien als een verlengstuk van de organisatie zelf. Wat Tay zei, straalde direct af op Microsofts eigen normen en waarden. De verontwaardiging ging dan ook niet alleen over een ‘technisch foutje’, maar over de vraag hoe een wereldwijd techbedrijf zo’n kwetsbaar systeem zonder goede waarborgen kon lanceren. De reputatieschade draaide om meer dan technologie: het raakte de geloofwaardigheid en het morele kompas van Microsoft.
Grok
Nog geen 10 jaar later herhaalde de geschiedenis zich. In juli 2025 kwam Grok, de AI-chatbot van Elon Musks xAI, onder vuur te liggen. Gebruikers ontdekten dat Grok antisemitische opmerkingen maakte, zelfs Hitler prees en complottheorieën verspreidde. De technische innovatie van Musk werd binnen een dag wereldnieuws, gevolgd door stevige maatschappelijke kritiek en vragen over de controle op AI-systemen. Het publiek rekende xAI en Musk persoonlijk af op het gebrek aan duidelijke grenzen en toezicht. Het incident maakte pijnlijk duidelijk dat AI-missers niet zomaar technische problemen zijn, maar de reputatie, betrouwbaarheid en kernwaarden van een merk direct kunnen aantasten.
Kan razendsnel ontstaan
Wat deze voorbeelden duidelijk maken, is dat AI-fouten niet alleen razendsnel kunnen ontstaan, maar ook harder kunnen inslaan dan traditionele communicatieblunders. Een verspreking van een woordvoerder of CEO tijdens een live interview is vervelend, maar een chatbot die namens je bedrijf op grote schaal schadelijke content verspreidt, kan in enkele uren wereldwijd viral gaan. Er wordt dan niet alleen uitleg verwacht, maar ook dat je verantwoordelijkheid neemt: hoe kon dit gebeuren, en wat doe je om het nooit meer te laten gebeuren?
Snelheid
Het is van groot belang om op deze nieuwe realiteit in te spelen. Dat begint bij snelheid: het direct erkennen dat er iets mis is gegaan. Tegelijk is openheid over de oorzaak essentieel. Verschuil je niet achter “het algoritme deed het”, maar uitleggen waarom de fout kon gebeuren en welke controlemechanismen hebben gefaald. En vergeet niet het allerbelangrijkste: laat zien dat je ervan leert.
Regie behouden
In een wereld waar AI steeds meer voor ons spreekt, blijft menselijke regie erg belangrijk. Juist omdat AI extreem kan versterken. Net als de snelheid, de reikwijdte, het bereik, kan het ook onze missers versterken. De vraag is dus niet of AI een rol moet krijgen in je communicatie, maar of je als organisatie voorbereid bent op de dag dat die rol tegen je keert.