8 op de 10 Belgen willen (en krijgen) transparantie over AI bij influencers

8 op de 10 Belgen willen (en krijgen) transparantie over AI bij influencers

27-04-2026 18:00 by FeWeb

Bijna 79% van de Belgische socialemediagebruikers vindt het belangrijk dat influencers vermelden wanneer ze AI gebruiken. Dat blijkt uit de SMI Barometer van Arteveldehogeschool en Comeos bij bijna 5.000 Belgen. Transparantie bij het gebruik van AI is precies één van de aanbevelingen van de Raad voor Reclame, die zelfregulering in België ontwikkelt.

AI gegenereerde content

41% zegt al bewust AI-gegenereerde influencercontent te hebben gezien. Jongeren herkennen dit vaker: 66% van de 16- tot 24-jarigen, tegenover slechts 27% bij 55-plussers. Mannen herkennen AI-content vaker dan vrouwen (45% vs. 36%). Hoewel jongeren AI sneller spotten, hechten ze iets minder belang aan expliciete vermeldingen — toch vindt nog 70% van hen transparantie belangrijk.

Virtuele influencers

44% van de Belgen kent het concept van virtuele influencers, maar slechts 5% volgt er effectief één. Onderzoeker Marijke De Veirman waarschuwt dat de beperkte bekendheid (of herkenbaarheid) van virtuele influencers het moeilijker maakt om kritisch om te gaan met zulke profielen. Comeos benadrukt dat transparantie nog urgenter wordt in een wereld waar marketing en entertainment steeds meer door elkaar lopen. 

AI-transparantie in de praktijk

De Influencer Marketing Alliance benadrukt dat er vandaag reeds aanbevelingen bestaan over het gebruik van AI in reclame. De Raad voor Reclame maakte een checklist om reclame snel en correct te toetsen aan ethische principes, waaronder het gebruik van AI in reclame. Deze principes worden ook opgenomen in het Influencer Certificaat, de e-learning over de reclameregels voor influencers en content creators.

De aanbevelingen:

1. Maak AI-gebruik zichtbaar

Vermeld duidelijk, tijdig en zichtbaar wanneer content kunstmatig is gegenereerd of gemanipuleerd die ten onrechte authentiek of waarheidsgetrouw lijkt en waarin afbeeldingen van mensen voorkomen ie iets lijken te zeggen of te doen wat zij niet hebben gedaan (bv deepfakes). Gebruik dan consistente labels zoals:

  • "AI-gegenereerde afbeelding"
  • "Gemaakt met AI-ondersteuning"
  • "Dit is een AI-assistent"

Stem het label af op de mate van AI-betrokkenheid: ondersteunend, samenwerkend of autonoom.

2. Identificeer virtuele interacties meteen

Chatbots, avatars en AI-assistenten moeten zich vanaf het eerste contact kenbaar maken als niet-menselijk. Laat nooit de indruk ontstaan dat er een echte persoon achter zit.

3. Plan transparantie van bij het begin

Beslis al tijdens de campagneplanning waar en hoe vermeldingen verschijnen: in ondertitels, disclaimers, audio of interface-labels. Transparantie is geen nagedachte, maar een vast onderdeel van het creatieve proces.

4. Vermijd misleidende content

Gebruik AI niet om valse, misleidende of bedrieglijke content te maken of te verspreiden — ook niet onbewust. Controleer of AI-output geen verkeerde indruk wekt van authenticiteit of menselijke aanwezigheid.

5. Documenteer je AI-beslissingen

Zorg dat geautomatiseerde beslissingen — zoals doelgroepselectie of dynamische advertenties — traceerbaar en uitlegbaar zijn. Houd documentatie bij over hoe en waarom die beslissingen werden genomen, voor intern gebruik, toezichthouders én het publiek.

Links: 

Tags:

Website created and supported by Starring Jane & Procurios
Sluiten