Dit is de tweede aflevering van de Twitterfiles. Bij de eerste aflevering vindt u een intro waarin ik uitleg waarom ik de Twitterfiles toegankelijk maak en in het Nederlands vertaal.
Omdat er veel TwitterFiles uitkomen, heb ik een overzicht gemaakt waarop van alle afleveringen en van de opiniestukken een korte samenvatting en de link staan: het TwitterFiles Dossier.
Bovendien heb ik een TwitterFiles Lexicon gemaakt waarin onbekende begrippen worden uitgelegd. Zowel het Dossier als het Lexicon worden natuurlijk voortdurend aangevuld.
Hieronder vindt u dus de tweede aflevering. Links de originele Engelse versie waar alleen nummertjes en andere storende zaken uit zijn gehaald, en rechts de Nederlandse vertaling. Alle afbeeldingen zijn opgenomen.
Twitterfiles 2
Gepubliceerd op 9 december door Bari Weiss
A new #TwitterFiles investigation reveals that teams of Twitter employees build blacklists, prevent disfavored tweets from trending, and actively limit the visibility of entire accounts or even trending topics—all in secret, without informing users. Twitter once had a mission “to give everyone the power to create and share ideas and information instantly, without barriers.” Along the way, barriers nevertheless were erected.
Een nieuw #TwitterFiles-onderzoek onthult dat teams van Twitter-medewerkers zwarte lijsten samenstellen, voorkomen dat ongewenste tweets trending worden en actief de zichtbaarheid van hele accounts of zelfs trending topics beperken – allemaal in het geheim, zonder gebruikers te informeren. Twitter had ooit een missie “om iedereen de mogelijkheid te geven om ideeën en informatie direct te creëren en te delen, zonder barrières.” Onderweg werden toch barrières opgeworpen.
Take, for example, Stanford’s Dr. Jay Bhattacharya (@DrJBhattacharya) who argued that Covid lockdowns would harm children. Twitter secretly placed him on a “Trends Blacklist,” which prevented his tweets from trending.
Neem bijvoorbeeld dr. Jay Bhattacharya (@DrJBhattacharya) van Stanford, die betoogde dat de corona lockdowns kinderen zouden schaden. Twitter plaatste hem in het geheim op een ‘Trends Blacklist’, waardoor zijn tweets niet populair werden.

Or consider the popular right-wing talk show host, Dan Bongino (@dbongino), who at one point was slapped with a “Search Blacklist.”
Of denk aan de populaire rechtse talkshowhost, Dan Bongino (@dbongino), die op een gegeven moment op een ‘Search Blacklist’ (waardoor hij niet voorkwam bij zoekresultaten, MvC) werd gezet.

Twitter set the account of conservative activist Charlie Kirk (@charliekirk11) to “Do Not Amplify.”
Twitter stelde het account van de conservatieve activist Charlie Kirk (@charliekirk11) in op ‘Do Not Amplify’: ‘Niet versterken.’

Twitter denied that it does such things. In 2018, Twitter’s Vijaya Gadde (then Head of Legal Policy and Trust) and Kayvon Beykpour (Head of Product) said: “We do not shadow ban.” They added: “And we certainly don’t shadow ban based on political viewpoints or ideology.”
Twitter ontkende dat het zulke dingen doet. In 2018 zeiden Vijaya Gadde (toenmalig hoofd Legal, Policy en Vertrouwen) en Kayvon Beykpour (hoofd Product) van Twitter: “We doen niet aan shadowbanning.” Ze voegden eraan toe: “En we doen dit zeker niet op basis van politieke standpunten of ideologie.”
What many people call “shadow banning,” Twitter executives and employees call “Visibility Filtering” or “VF.” Multiple high-level sources confirmed its meaning. “Think about visibility filtering as being a way for us to suppress what people see to different levels. It’s a very powerful tool,” one senior Twitter employee told us.
Wat veel mensen ‘shadowbanning’ noemen, noemen Twitter-managers en -medewerkers ‘Zichtbaarheidsfiltering’ of ‘VF’. Meerdere bronnen op hoog niveau bevestigden de betekenis ervan. “Beschouw zichtbaarheidsfiltering als een manier voor ons om op verschillende niveaus te onderdrukken wat mensen zien. Het is een zeer krachtig middel’, vertelde een senior Twitter-medewerker ons.
“VF” refers to Twitter’s control over user visibility. It used VF to block searches of individual users; to limit the scope of a particular tweet’s discoverability; to block select users’ posts from ever appearing on the “trending” page; and from inclusion in hashtag searches. All without users’ knowledge.
“VF” verwijst naar de controle van Twitter over de zichtbaarheid van twitteraars. Twitter gebruikte VF om zoekopdrachten van individuele twitteraars te blokkeren; om het bereik (de vindbaarheid) van een bepaalde tweet te beperken; om berichten van geselecteerde twitteraars zo te blokkeren dat ze niet trending werden; en om te voorkomen dat zij voorkwamen in hashtag-zoekopdrachten. Dit alles zonder medeweten van de twitteraars.
“We control visibility quite a bit. And we control the amplification of your content quite a bit. And normal people do not know how much we do,” one Twitter engineer told us. Two additional Twitter employees confirmed.
“We beheersen de zichtbaarheid behoorlijk. En we hebben nogal wat controle over de versterking van uw inhoud. En gewone mensen weten niet hoeveel we doen,” vertelde een Twitter technicus ons. Twee andere Twitter-medewerkers bevestigden dit.
The group that decided whether to limit the reach of certain users was the Strategic Response Team – Global Escalation Team, or SRT-GET. It often handled up to 200 “cases” a day. But there existed a level beyond official ticketing, beyond the rank-and-file moderators following the company’s policy on paper. That is the “Site Integrity Policy, Policy Escalation Support,” known as “SIP-PES.”
De groep die besliste of het bereik van bepaalde gebruikers moest worden beperkt, was het Strategic Response Team – Global Escalation Team of kortweg: SRT-GET. Dit team behandelde vaak tot 200 “gevallen” per dag. Maar er bestond een niveau dat verder ging dan de officiële labeling, verder dan de gewone moderatoren die op papier het beleid van het bedrijf volgden. Dat is het team “Site Integrity Policy, Policy Escalation Support”, beter bekend als “SIP-PES”.
This secret group included Head of Legal, Policy, and Trust (Vijaya Gadde), the Global Head of Trust & Safety (Yoel Roth), subsequent CEOs Jack Dorsey and Parag Agrawal, and others. This is where the biggest, most politically sensitive decisions got made. “Think high follower account, controversial,” another Twitter employee told us. For these “there would be no ticket or anything.”
In deze geheime groep zaten het hoofd van de afdeling Legal, Policy, & Trust (Vijaya Gadde), het hoofd van de afdeling Trust & Safety (Yoel Roth), dan nog algemeen directeuren Jack Dorsey en Parag Agrawal, en anderen. Hier werden de belangrijkste, politiek meest gevoelige beslissingen genomen. “Denk aan accounts met veel volgers, die controversieel zijn,” zei een andere Twitter-medewerker tegen ons. Voor deze twitteraars “zou er geen label of iets dergelijks zijn.”
One of the accounts that rose to this level of scrutiny was @libsoftiktok—an account that was on the “Trends Blacklist” and was designated as “Do Not Take Action on User Without Consulting With SIP-PES.”
Een van de accounts die tot dit niveau van controle steeg, was @libsoftiktok – een account dat op de “Trends Blacklist” stond en werd aangeduid als “Onderneem geen actie tegen gebruiker zonder overleg met SIP-PES.”

The account—which Chaya Raichik began in November 2020 and now boasts over 1.4 million followers—was subjected to six suspensions in 2022 alone, Raichik says. Each time, Raichik was blocked from posting for as long as a week. Twitter repeatedly informed Raichik that she had been suspended for violating Twitter’s policy against “hateful conduct.”
Het account, waarmee Chaya Raichik in november 2020 begon en dat nu meer dan 1,4 miljoen volgers heeft, werd alleen al in 2022 zes keer geschorst, zegt Raichik. Elke keer was Raichik een week lang geblokkeerd en kon dan geen tweets posten. Twitter heeft Raichik herhaaldelijk laten weten dat ze was geschorst wegens het overtreden van het beleid van Twitter tegen ‘haatdragend gedrag’.
But in an internal SIP-PES memo from October 2022, after her seventh suspension, the committee acknowledged that “LTT has not directly engaged in behavior violative of the Hateful Conduct policy.” See here:
Maar in een interne SIP-PES-memo uit oktober 2022, na haar zevende schorsing, erkende de commissie dat “LTT niet rechtstreeks betrokken is geweest bij gedrag dat in strijd is met het Hateful Conduct-beleid.” Zie hier:

Tekst getoond in screenshot:
Aanbeveling van de afdeling Site Policy (beleid sites)
Site Policy raadt aan om @LibsOfTiktok ([LTT] 1,3 miljoen volgers, niet geverifieerd) een time-out van 7 dagen te geven op accountniveau (dus niet voor een specifieke Tweet). Dit op basis van het aanhoudende patroon van dit account van het indirect schenden van Twitter’s beleid inzake haatdragend gedrag, door het tweeten van inhoud die ofwel leidt tot of de intentie heeft om aan te zetten tot intimidatie van personen en instellingen die LGBTQ-gemeenschappen steunen. Op dit moment heeft Site Policy geen tweets gevonden die expliciet in strijd zijn met het beleid, wat zou resulteren in een permanente opschorting van het account.
Dit type handhavingsactie (herhaalde time-outs van 7 dagen op accountniveau) leidt niet tot permanente schorsing: maar mocht LTT zich schuldig maken aan enige andere directe schending op Tweet-niveau van het beleid van Site Policy, dan gaan we over tot permanente schorsing.
Beoordeling
Hoewel LTT zich sinds de meest recente time-out niet rechtstreeks schuldig heeft gemaakt aan gedrag dat in strijd is met het Hateful Conduct-beleid, is de gebruiker doorgegaan met het aanvallen van personen/bondgenoten/aanhangers van de LGBTQIA+-gemeenschap wegens vermeend wangedrag. Het aanvallen van ten minste één van deze instellingen- (tekst breekt hier af, MvC)
The committee justified her suspensions internally by claiming her posts encouraged online harassment of “hospitals and medical providers” by insinuating “that gender-affirming healthcare is equivalent to child abuse or grooming.”
De commissie rechtvaardigde haar schorsingen intern door te stellen dat de tweets van LTT online intimidatie van “ziekenhuizen en medische zorgverleners” aanmoedigden door te insinueren “dat genderbevestigende gezondheidszorg gelijk staat aan kindermishandeling of kinderlokkerij”.
Compare this to what happened when Raichik herself was doxxed on November 21, 2022. A photo of her home with her address was posted in a tweet that has garnered more than 10,000 likes. When Raichik told Twitter that her address had been disseminated she says Twitter Support responded with this message: “We reviewed the reported content, and didn’t find it to be in violation of the Twitter rules.” No action was taken. The doxxing tweet is still up.
Vergelijk dit eens met wat er gebeurde toen Raichik zelf op 21 november 2022 werd gedoxxed. Een foto van haar huis met haar adres werd gepost in een tweet die meer dan 10.000 likes heeft gekregen. Toen Raichik Twitter vertelde dat haar adres was verspreid, reageerde Twitter Support volgens haar met dit bericht: “We hebben de gerapporteerde inhoud beoordeeld en vonden niet dat deze in strijd was met de Twitter-regels.” Er werd geen actie ondernomen. De doxxing-tweet staat nog steeds op Twitter.

Tekst getoond in screenshot:
Hallo,
Bedankt dat u contact opneemt. We hebben de gerapporteerde inhoud beoordeeld en hebben niet vastgesteld dat deze in strijd is met de Twitter-regels. In dit geval wordt op dit moment geen actie ondernomen.
Als u zich verder nog zorgen maakt over intellectueel eigendom, uw privacy of uw persoonlijke veiligheid, kunnen de volgende richtlijnen u helpen:
In internal Slack messages, Twitter employees spoke of using technicalities to restrict the visibility of tweets and subjects. Here’s Yoel Roth, Twitter’s then Global Head of Trust & Safety, in a direct message to a colleague in early 2021:
In interne Slack-berichten spraken Twitter-medewerkers over het gebruik van technische middelen om de zichtbaarheid van tweets en onderwerpen te beperken. Hier is Yoel Roth, het toenmalige hoofd van Trust & Safety van Twitter, in een direct bericht aan een collega begin 2021:

Tekst getoond in screenshot:
Joel Roth:
Vaak heeft Sl technische spamhandhaving gebruikt als een manier om een probleem op te lossen dat is ontstaan doordat Safety hun beleid onvoldoende handhaafde. Wat, nogmaals, op zich geen probleem is, maar het weerhoudt ons ervan de oorzaak van het probleem aan te pakken, namelijk dat ons veiligheidsbeleid enige aandacht behoeft.
Six days later, in a direct message with an employee on the Health, Misinformation, Privacy, and Identity research team, Roth requested more research to support expanding “non-removal policy interventions like disabling engagements and deamplification/visibility filtering.”
Zes dagen later, in een direct bericht aan een medewerker van het onderzoeksteam Health, Misinformation, Privacy, & Identity, vroeg Roth om meer onderzoek om uitbreiding te bevorderen van “ingrepen waarbij een account niet geschorst wordt, zoals bij het uitschakelen van contactmogelijkheden, het onderdrukken van bereik en zichtbaarheidsfiltering.”

Tekst getoond in screenshot:
Yoel Roth
Een van de grootste gebieden waar ik graag onderzoeksondersteuning voor zou hebben, is: ingrepen waarbij een account niet geschorst wordt, zoals bij het uitschakelen van contactmogelijkheden, het onderdrukken van bereik en zichtbaarheidsfiltering. De hypothese die ten grondslag ligt aan veel van wat we hebben toegepast, is dat als blootstelling aan bijvoorbeeld verkeerde informatie direct schade veroorzaakt, we middelen moeten gebruiken die de blootstelling verminderen. En het beperken van de verspreiding/viraal gaan van materiaal is een goede manier om dat te doen (door gewoon te zorgen dat het minder gangbaar wordt). We hebben Jack mee gekregen om dit op korte termijn toe te passen voor Civic Integrity, maar we zullen een steviger pleidooi moeten houden om dit in ons repertoire van beleidsherstel te krijgen, vooral voor andere beleidsdomeinen. Dus ik zou graag willen weten hoe research dit ziet.
Roth wrote: “The hypothesis underlying much of what we’ve implemented is that if exposure to, e.g., misinformation directly causes harm, we should use remediations that reduce exposure, and limiting the spread/virality of content is a good way to do that.”
Roth schreef: “De hypothese die ten grondslag ligt aan veel van wat we hebben toegepast, is dat als blootstelling aan bijvoorbeeld verkeerde informatie direct schade veroorzaakt, we middelen moeten gebruiken die de blootstelling verminderen. En het beperken van de verspreiding/viraal gaan van materiaal is een goede manier om dat te doen.”
He added: “We got Jack on board with implementing this for civic integrity in the near term, but we’re going to need to make a more robust case to get this into our repertoire of policy remediations – especially for other policy domains.”
Hij voegde daaraan toe: “We hebben Jack mee gekregen om dit op korte termijn toe te passen voor Civic Integrity, maar we zullen een steviger pleidooi moeten houden om dit in ons repertoire van beleidsherstel te krijgen, vooral voor andere beleidsdomeinen.
————-
There is more to come on this story, which was reported by @AbigailShrier @ShellenbergerMD @NellieBowles @IsaacGrafstein and the team The Free Press @TheFP.
Er komt nog meer over dit verhaal, waaraan is gewerkt door @AbigailShrier @ShellenbergerMD @NellieBowles @IsaacGrafstein en het team The Free Press @TheFP.
Keep up with this unfolding story here and at our brand new website: thefp.com. The authors have broad and expanding access to Twitter’s files. The only condition we agreed to was that the material would first be published on Twitter.
Blijf op de hoogte van dit zich ontvouwende verhaal, hier en op onze gloednieuwe website: thefp.com. De auteurs hebben ruime en groeiende toegang tot de bestanden van Twitter. De enige voorwaarde waar we mee instemden, was dat het materiaal eerst op Twitter zou worden gepubliceerd.
We’re just getting started on our reporting. Documents cannot tell the whole story here. A big thank you to everyone who has spoken to us so far. If you are a current or former Twitter employee, we’d love to hear from you. Please write to: tips@thefp.com
Watch @mtaibbi for the next installment.
We zijn nog maar net begonnen met onze rapportage. Documenten kunnen hier niet het hele verhaal vertellen. Heel erg bedankt aan iedereen die tot nu toe met ons heeft gesproken. Als je een huidige of voormalige Twitter-medewerker bent, horen we graag van je. Schrijf naar: tips@thefp.com
Hou @mtaibbi in de gaten voor de volgende aflevering.
Vond je dit artikel goed? Steun Maaike van Charante via repelsteeltje.backme.org
Op de hoogte blijven van nieuwe artikelen? Volg Maaike op Twitter.