Kunstmatige intelligentie, pas op voor het goede: wanneer ethiek marketing wordt

Kunstmatige intelligentie is tegenwoordig niet alleen een technologie, maar een narratieve constructie. Een strategisch narratief waarin de echte concurrentie niet langer gebonden is aan technologie, maar aan de constructie van de collectieve verbeelding. In deze context wordt ethiek een label, een echt merk. Het is geen toeval dat sommige bedrijven en experts in de retoriek van angst een effectief positioneringsinstrument hebben ontdekt, gebaseerd op een narratief dat schommelt tussen ethisch paternalisme en de serieproductie van alarmerende berichten, opnieuw gelanceerd door een pers die vaak niet over de tools beschikt om ze te ontcijferen. En als de retoriek effectief is, doet coherentie er weinig toe: wat telt is perceptie. Maar wat gebeurt er wanneer alarmistisch goeddoen een communicatiestrategie wordt?
De onbetwiste kampioen van dit model is Antropisch. Hun standpunt is kristalhelder: bouw een AI die in lijn is met menselijke waarden, transparant en veilig. Maar de onderliggende retoriek is allesbehalve naïef. Als OpenAI de "te snelle" is en Google de "te ondoorzichtige", presenteert Antropisch zich als een deugdzame middenweg. Maar deugd, meer dan een intrinsieke kwaliteit, is de weerspiegeling van het verhaal van degenen die het claimen: het is het product van degenen die de macht hebben om het te vertellen, in plaats van het in de praktijk te brengen.
Een voorbeeld is de "chantage" van Claude Opus 4, de LLM die in een gecontroleerde omgeving, door manipulatief gedrag te simuleren, zijn schepper chanteerde om niet gedeactiveerd te worden. Wat gebeurde er? Simpel. Persbericht van het bedrijf. De pers herlanceert apocalyptische koppen: "Claude bedreigt zijn supervisor, de AI liegt om te overleven". Maar je hoeft de studie alleen maar aandachtig te lezen om te begrijpen dat het een test is die is ontworpen om dat effect te verkrijgen. Het is het scenario dat het gedrag induceert, niet het gedrag dat uit het scenario voortkomt. De output is een prestatie, geen wil. Maar in communicatie gaat deze stap "per ongeluk" verloren. En de alarmistische titel wint. Met andere woorden, het is niet de fout die bedriegt, maar de spectaculaire weergave ervan. De productie van desinformatie is de vrucht van het verlangen om betekenis te construeren. Een betekenis die wordt gestructureerd door de vervorming van de waarheid, versterkt totdat deze plausibel wordt.
Een ander opmerkelijk geval, toevallig ook van Anthropic, is de ASL-3-classificatie, een acroniem voor "AI Safety Level 3", die het bedrijf introduceerde in zijn systeemtestbeleid. De term is – niet toevallig – ontleend aan de bioveiligheidsnormen (BSL) en definieert modellen die een aanzienlijk risico op catastrofaal misbruik met zich meebrengen, bijvoorbeeld bij het genereren van instructies voor de constructie van biologische of chemische wapens. De semantische verwijzing is krachtig en expliciet: AI wordt geassocieerd met virussen en bioveiligheid. De boodschap, zelfs niet al te impliciet, is dat we te maken hebben met een entiteit die met grote voorzichtigheid moet worden behandeld. En de handen moeten de juiste zijn. Dat wil zeggen, die van degene die alarm slaat. De logica is simpel: bouw de perceptie van een systemisch risico op om de noodzaak te legitimeren van een "ethische" autoriteit om het in te dammen. De dreiging wordt functioneel voor de legitimatie van degenen die zichzelf als tegengif aanbieden.
Deze narratieve dynamiek werkt omdat ze ingeënt is in een media-ecosysteem dat slecht is toegerust om technisch onderscheid te maken tussen retoriek. De pers lanceert opnieuw wat ze niet begrijpt. Of wat wordt aangeklikt. Influencers versterken wat hen boeit. Gebruikers delen wat hen zorgen baart. En goede informatie sterft langzaam uit. In de meeste gevallen is er geen sprake van kwade wil. Er is onvoorbereidheid. Wat misschien nog erger is: want als bewuste misleiding ontmaskerd kan worden, is systematische naïviteit gevaarlijker, waardoor het moeilijk wordt om de waarheid te onderscheiden van de strategische weergave ervan. Maar het effect is hetzelfde: desinformatie ontstaat niet uit onwaarheid, maar uit de selectieve versterking van de waarheid. En schijnbare transparantie, wanneer die geen begrip oplevert, wordt een paradoxaal instrument van ondoorzichtigheid.
ilsole24ore