8 op de 10 Belgen willen (en krijgen) transparantie over AI bij influencers
27-04-2026 18:00
Bijna 79% van de Belgische socialemediagebruikers vindt het belangrijk dat influencers vermelden wanneer ze AI gebruiken. Dat blijkt uit de SMI Barometer van Arteveldehogeschool en Comeos bij bijna 5.000 Belgen. Transparantie bij het gebruik van AI is precies één van de aanbevelingen van de Raad voor Reclame, die zelfregulering in België ontwikkelt.
AI gegenereerde content
41% zegt al bewust AI-gegenereerde influencercontent te hebben gezien. Jongeren herkennen dit vaker: 66% van de 16- tot 24-jarigen, tegenover slechts 27% bij 55-plussers. Mannen herkennen AI-content vaker dan vrouwen (45% vs. 36%). Hoewel jongeren AI sneller spotten, hechten ze iets minder belang aan expliciete vermeldingen — toch vindt nog 70% van hen transparantie belangrijk.
Virtuele influencers
44% van de Belgen kent het concept van virtuele influencers, maar slechts 5% volgt er effectief één. Onderzoeker Marijke De Veirman waarschuwt dat de beperkte bekendheid (of herkenbaarheid) van virtuele influencers het moeilijker maakt om kritisch om te gaan met zulke profielen. Comeos benadrukt dat transparantie nog urgenter wordt in een wereld waar marketing en entertainment steeds meer door elkaar lopen.
AI-transparantie in de praktijk
De Influencer Marketing Alliance benadrukt dat er vandaag reeds aanbevelingen bestaan over het gebruik van AI in reclame. De Raad voor Reclame maakte een checklist om reclame snel en correct te toetsen aan ethische principes, waaronder het gebruik van AI in reclame. Deze principes worden ook opgenomen in het Influencer Certificaat, de e-learning over de reclameregels voor influencers en content creators.
De aanbevelingen:
1. Maak AI-gebruik zichtbaar
Vermeld duidelijk, tijdig en zichtbaar wanneer content kunstmatig is gegenereerd of gemanipuleerd die ten onrechte authentiek of waarheidsgetrouw lijkt en waarin afbeeldingen van mensen voorkomen ie iets lijken te zeggen of te doen wat zij niet hebben gedaan (bv deepfakes). Gebruik dan consistente labels zoals:
- "AI-gegenereerde afbeelding"
- "Gemaakt met AI-ondersteuning"
- "Dit is een AI-assistent"
Stem het label af op de mate van AI-betrokkenheid: ondersteunend, samenwerkend of autonoom.
2. Identificeer virtuele interacties meteen
Chatbots, avatars en AI-assistenten moeten zich vanaf het eerste contact kenbaar maken als niet-menselijk. Laat nooit de indruk ontstaan dat er een echte persoon achter zit.
3. Plan transparantie van bij het begin
Beslis al tijdens de campagneplanning waar en hoe vermeldingen verschijnen: in ondertitels, disclaimers, audio of interface-labels. Transparantie is geen nagedachte, maar een vast onderdeel van het creatieve proces.
4. Vermijd misleidende content
Gebruik AI niet om valse, misleidende of bedrieglijke content te maken of te verspreiden — ook niet onbewust. Controleer of AI-output geen verkeerde indruk wekt van authenticiteit of menselijke aanwezigheid.
5. Documenteer je AI-beslissingen
Zorg dat geautomatiseerde beslissingen — zoals doelgroepselectie of dynamische advertenties — traceerbaar en uitlegbaar zijn. Houd documentatie bij over hoe en waarom die beslissingen werden genomen, voor intern gebruik, toezichthouders én het publiek.
Links: