Fr
Close

BRANDS

Waarom je beter niet naar 'The Social Dilemma' kijkt, door Fred Bouchar (MM)

Zondag 27 September 2020

Waarom je beter niet naar 'The Social Dilemma' kijkt, door Fred Bouchar (MM)

Je bent slechtgezind en somber, op deze eerste regenachtige zondag, terwijl buiten het virus blijft razen. Je hebt besloten in je zetel te ploffen, veilig onder je dekentje, en vraagt je af wat het algoritme van Netflix je vandaag zal voorschotelen.
 
De kans is groot dat het ‘The Social Dilemma’ suggereert. Deze documentaire staat immers in de Belgische top tien van meest bekeken programma’s en aangezien het algoritme ondertussen al je gegevens verteerd heeft, weet het dat je in de reclame werkt. Dat je frequent op de sociale media zit, maar een haat-liefde verhouding hebt met Facebook, Instagram, Twitter en co. Het weet ook dat dit docudrama je niet per se slimmer zal maken, dat je politiek correct afstand neemt indien nodig, je zorgen maakt om brand safety, je distantieert van hate speech, enzovoort. Echt vrolijk word je niet van de film, zoveel is zeker. Trots al evenmin.
 
Dat heeft niet alleen te maken met het onheilspellende citaat van Sophocles’ Antigone aan het begin van de film die gedraaid werd door Jeff Orlowski – “Nothing that is vast enters into the life of mortals without a curse”, wel met het feit dat je al wat zal volgen in feite al weet. En dat je wellicht de grootste moeite zult hebben om de eerste vraag van de film te beantwoorden: wat is het probleem met de sociale netwerken?
 
Als het je kan geruststellen: de voormalige makers van de sociale media die in ‘The Social Dilemma’ aan het woord komen, zijn al even gegeneerd. “’t Is moeilijk om er een probleem uit te halen”, antwoordt Justin Rosenstein die onder andere de Like-knop van Facebook uitgevonden heeft. Gedurende meer dan 90 minuten somt de film de vele problemen op: het gebruik van onze data, nomofobie (de vrees om zonder mobiele telefoon te zitten, nvdr), verslaving aan de sociale netwerken, hun impact op onze mentale gezondheid, hun rol in de visibiliteit van complottheorieën, extremisme, hate speech, en vooral de manipulatie van ons gedrag voor reclamedoeleinden.
 
“Je zou bijna vergeten dat deze tools ons ook echt wonderbaarlijke dingen opgeleverd hebben, maar we waren naïef over de keerzijde van de medaille”, verklaar Tim Kendall die vroeger bij Facebook verantwoordelijk was voor de verdienmodellen en in 2006 vond dat “reclame wellicht de elegantste manier was om geld binnen te halen”.
 
“Als je niet voor het product betaalt, ben je het product”, aldus Tristan Harris, vroeger design ethicus bij Google en medeoprichter van het Center for Humane Technology. Volgens computer scientist Jaron Lanier “is de progressieve, lichte en onmerkbare verandering van ons gedrag en standpunt het product”.
 
“Dat is het enige waar ze geld mee kunnen verdienen: onze handelingen, gedachten, wie we zijn wijzigen”, preciseert hij. “En daar droomde elk bedrijf tot dusver van: de garantie dat zijn reclame efficiënt werkt”, vervolgt Shoshana Zuboff, professor aan de Harvard Business School. “De commercialisering van deze zekerheid is hun handelsfonds. Om te slagen hebben ze goede voorspellingen nodig en de voorwaarde voor goede voorspellingen, zijn data. Veel data.”
 
Dat noemt ze het toezichtskapitalisme: een vorm van kapitalisme die zijn voordeel doet met de zorgvuldige abservatie van alles wat we doen door bedrijven wier businessmodel erin bestaat het succes van de adverteerders te verzekeren: “Een ongeziene marktplaats die handelt in de toekomst van de mens op grote schaal en die de rijkste bedrijven in de geschiedenis van de mensheid opleverde.”
 
“We denken onterecht dat het onze gegevens zijn die verkocht worden, maar het is niet in het belang van Facebook om zijn data te verkopen. Wat ze wel doen: ze bouwen modellen om te voorspellen wat we gaan doen en de winnaar is diegene die het beste model bouwt”, aldus Aza Raskin die de scroll zonder einde uitvond. Voor ex-Facebook-medewerker Sandy Parakilas “zijn alle gegevens die we voortdurend produceren in systemen opgenomen zonder dat er veel menselijke controle aan te pas komt en leveren deze systemen almaar accuratere voorspellingen van ons en onze handelingen.”
 
Jeff Seibert, fde oprichter van Crashlytics, gaat nog een stap verder: “Als het om machine learning gaat, mag je niet vergeten dat niemand in feite nog echt weet wat computers precies doen.”” “Er is slechts een handvol mensen die weten hoe die systemen echt werken en zelfs zij weten het niet helemaal precies”, bevestigt Sandy Parakilas. “We hebben de controle over deze systemen bijna verloren: zij controleren ons meer dan wij hen.”
 
Beangstigend? Erger nog. Volgens Jaron Lanier “scheppen we een generatie die opgroeit in een omgeving waar het idee van communicatie of cultuur geassocieerd wordt met manipulatie.”
 
De wereld lijkt machteloos tegenover deze manipulatie die verrijkt wordt door de miljarden gebruikers van de sociale netwerken. “Zeker omdat deze platformen ontworpen zijn om ons totaal verslaafd te maken.” Waarop de documentaire verwijst naar een citaat van datapionier Edward Tufte: “Er zijn maar twee industrieën die hun consumenten ‘users’ noemen: die van de drugs en de software”.
 
De algoritmen van Facebook, Instagram, Twitter en YouTube zijn ontworpen om de hersenen de vereiste dosis dopamine te verstrekken om ze verslaafd te maken, verklaart Anna Lembke, professor gespecialiseerd in verslavingen aan de universiteit van Stanford: “De platformen zijn opgevat om de aandacht van de gebruikers zo lang mogelijk vast te houden en zoveel mogelijk reclame-inkomsten te genereren. De meldingen, likes, tags en andere aanbevelingen houden ons heel de tijd in spanning, zonder dat we ons daar altijd volledig van bewust zijn.”
 
Verslaving creëert gemis, met dramatische gevolgen bij de jongeren. Een psycholoog van de NYU Stern School of Business legt uit dat GenZ almaar angstiger wordt, vooral bij de jonge meisjes. Tot in 2000 lag het hospitalisatiepercentage voor zelfverminking en zelfmoord zeer laag in de Verenigde Staten, maar tussen 2011 en 2013 is dat enorm toegenomen, in de periode waarin de sociale media aan een steile opmars begonnen. Het is dan ook niet verwonderlijk dat de pioniers van Silicon Valley zeggen dat ze de toegang tot de sociale media voor hun kinderen strikt beperken.
 
Een ander belangrijk probleem is de polarisering van onze samenleving die in de hand gewerkt wordt door de algoritmes: “Om ons zo lang mogelijk vast te houden, tonen ze inhoud die onze standpunten valideert. Daardoor krijgt iedereen het verkeerde idee dat de hele wereld op dezelfde golflengte zit”, aldus Tristan Harris. “Op Twitter verspreidt fake news zich zes keer sneller dan echte informatie. Video’s die claimen dat de aarde plat is, werden miljoenen keer aanbevolen op YouTube. In wat voor wereld leven we als leugens zich sneller verspreiden dan de waarheid?”
 
De afgekickten zijn niet echt optimistisch, dat had je al door: ze hebben allemaal spijt van wat ze ontketend hebben en hun voorspellingen klinken beangstigend. Enkele weken voor de Amerikaanse verkiezingen zegt Tim Kendall dat hij vreest voor een burgeroorlog. Jaron Lanier en Tristan Harris hebben het over een existentieel gevaar voor de mensheid. Ze zullen wel overdrijven.
 
Anderen koesteren hoop en denken dat regelgeving mogelijk is. Velen pleiten voor actievere en meer vastberaden maatregelen, zoals een databelasting, een ontmanteling of zelfs een verbod. Maar niemand gelooft een seconde dat de oplossing kan komen van deze bedrijven die zich te hard bezighouden met winst maken om van paradigma te veranderen.
 
And so what?
 
Je was gewaarschuwd: dat wisten jullie, wij, allemaal al.

Archief / BRANDS