Fr

TECH

En toen werd je content niet langer gelezen door mensen, door Sabrina Bulteau (PingPrime)

Donderdag 30 April 2026

En toen werd je content niet langer gelezen door mensen, door Sabrina Bulteau (PingPrime)

Er is op dit moment een structurele verschuiving bezig in de attention economy, maar opvallend weinig merken lijken het signaal echt te hebben opgepikt. Terwijl de industrie zich nog bezighoudt met discussies over AI Overviews in Google Search of de dominantie van ChatGPT, zijn de drie grote AI-spelers in korte tijd op hetzelfde strategische terrein uitgekomen: agentic AI. Dat gebeurt in relatieve stilte, maar de impact is groot, want het verandert fundamenteel hoe informatie circuleert, wordt geaggregeerd en uiteindelijk bij prospects terechtkomt.

Wat er concreet verandert, is dat AI evolueert van een conversationele interface naar een volwaardige werklaag. Met tools zoals Deep Research van Google, Workspace Agents van OpenAI en de agent-infrastructuur van Anthropic, verschuift de rol van AI richting autonome systemen die zelfstandig zoeken. Die agents combineren publieke webdata met private datasets, API’s en interne documenten, en produceren output die eerder lijkt op het werk van een analist dan op het antwoord van een chatbot. Soms gebeurt dat in realtime, maar net zo goed nemen die systemen uren de tijd om een gestructureerd rapport op te bouwen.

De echte gamechanger zit niet alleen in die capabilities, maar in de onderliggende standaardisering via het Model Context Protocol. Dat maakt het mogelijk om context dynamisch te verbinden over verschillende databronnen heen. Daardoor wordt AI minder een tool waar je vragen aan stelt, en meer een infrastructuur waarin informatie continu wordt verwerkt, verrijkt en opnieuw ingezet. En precies daar verschuiven de regels rond visibility.

Tot voor kort was de dominante vraag vanuit marketingteams of hun merk geciteerd werd in ChatGPT. Die vraag verliest snel relevantie. In een agentic paradigma delegeren gebruikers namelijk geen losse vragen meer, maar volledige onderzoeksopdrachten. Die agents draaien urenlang, analyseren tientallen tot honderden bronnen en leveren output die persistent is: rapporten die gedeeld, opgeslagen en hergebruikt worden in verdere besluitvorming.

Belangrijker nog is dat de selectiecriteria van die agents anders werken dan klassieke search of chat. Waar een chatbot snel een antwoord samenstelt op basis van een beperkt aantal bronnen, voert een agent een vorm van due diligence uit. Daarbij spelen niet populariteit of SEO-ranking de hoofdrol, maar entity consistency, brondiversiteit en structurele coherentie van informatie over verschillende datasets heen. Dat zijn precies de signalen die veel merken de afgelopen jaren ondergeprioriteerd hebben.

Data bevestigt dat beeld al. Slechts een klein percentage van de bronnen die AI-systemen gebruiken komt rechtstreeks van merkwebsites, terwijl het merendeel afkomstig is van third-party omgevingen. In een agentic context wordt die asymmetrie alleen maar groter. Een agent die een sector analyseert, kijkt niet primair naar corporate homepages, maar naar reviewplatforms, vakmedia, fora, academische referenties, LinkedIn-profielen en vergelijkende content van concurrenten. Als een merk daar niet consistent aanwezig is, verdwijnt het simpelweg uit de gegenereerde analyse.

En dat heeft downstream effecten, omdat de output van die agents niet vluchtig is. In tegenstelling tot een chatantwoord dat na enkele seconden verdwijnt, functioneren deze rapporten als herbruikbare knowledge assets binnen besluitvormingsprocessen. Ze worden gedeeld tussen stakeholders, opgeslagen in workflows en opnieuw gebruikt als input voor volgende analyses. De zichtbaarheid die vandaag ontbreekt, vertaalt zich dus morgen in gemiste aanwezigheid in strategische beslissingen.

Voor marketeers betekent dit dat de hefboom van AI visibility verschuift naar off-site signalen. Digitale PR, externe publicaties en sociale mentions wegen zwaarder dan klassieke on-site optimalisatie. Technische SEO blijft relevant, maar verliest relatief gewicht naarmate agents dominanter worden in deep research use cases. Het probleem ontstaat vooral bij merken die SEO als voldoende beschouwen en hun bredere information footprint verwaarlozen.

Wie dit wil toetsen, kan eenvoudig een agent-based analyse uitvoeren op zijn eigen sector en observeren welke entiteiten effectief in de output verschijnen en met welke attributen. Dat maakt meteen zichtbaar waar de lacunes zitten in externe aanwezigheid en positionering.

De onderliggende dynamiek kan samengevat worden als entity gravity: de mate waarin een merk consistent en coherent wordt gerepresenteerd over meerdere onafhankelijke bronnen. Die density van gecorreleerde signalen bouw je niet op korte termijn op; het vergt maanden om zich te verankeren in de modellen. Tegelijk is net die traagheid wat het tot een duurzaam concurrentievoordeel maakt. Merken die nu investeren in die narrative infrastructuur profiteren later van een gevestigde positie wanneer agentic systemen de norm worden, terwijl anderen pas merken dat ze ontbreken op het moment dat ze niet meer in de relevante outputs verschijnen.
De kern van de verschuiving is dus niet dat mensen stoppen met lezen, maar dat de eerste lezer van je content steeds vaker een AI-agent is die beslist of je überhaupt nog meegenomen wordt in het verhaal.

Archief / TECH