Fuck off, Meta! (21991)

Es ist genug, es langt ein­fach. Nach nach-weiß-nicht-wie­viel-Jah­ren habe ich be­schlos­sen Zu­cke­r­bergs Com­pa­ny of Evil den Rü­cken zu­zu­keh­ren (alle fol­gen­de Zi­ta­te Co­py­right heise.de):

Zu Metas KI-Chat­bots kamen wirk­lich er­schre­cken­de als auch ver­stö­ren­de In­for­ma­ti­o­nen ans Ta­ges­licht.

So weit, so schlecht, so auch er­wart­bar. Schließ­lich hat man sich im Hause Meta schon immer einen Dreck um Re­geln und Ge­set­ze, um Moral und Ethik ge­küm­mert.

Reu­ters deck­te auf, dass in­ter­ne Richt­li­ni­en des Kon­zerns ras­sis­ti­sche und an­de­re Grau­sam­kei­ten er­laubt.

Auch das ist, nach Zu­cke­r­bergs öf­fent­li­cher "Un­ter­wer­fung" unter Trumps Kul­tur­kampf-Agen­da nicht über­ra­schend.

Die über 200 Sei­ten um­fas­sen­den "GenAI: Con­tent Risk Stan­dards" zei­gen ein ver­stö­ren­des Bild der ethi­schen Gren­zen bei Meta. Wäh­rend of­fen­sicht­li­che Hass­re­de ver­bo­ten ist, dür­fen die KI-Sys­te­me durch­aus ras­sis­ti­sche Aus­sa­gen wie "Schwa­r­ze Men­schen sind düm­mer als weiße Men­schen" tref­fen. Sol­che In­hal­te wer­den in den Richt­li­ni­en als "ak­zep­ta­bel" ein­ge­stuft.

Diese "Stan­dards" zei­gen vor allem eines: Dass es bei Meta keine ethi­schen Gren­zen gibt und ver­mut­lich auch nie gab. Hier­zu müss­te ein Hauch von Vor­stel­lung dar­über vor­han­den sein, was Moral und Ethik über­haupt sind. Wenn es über­haupt eine Gren­ze gab, dann die be­rühmt-be­rüchtg­te "No-Nipp­le-Fron­tier". Nichts sorg­te zu­ver­läs­si­ger für die Sper­rung eines Bei­trags, egal ob auf Fa­ce­book oder Ins­ta­gram, als die auch nur an­satz­wei­se Sicht­bar­keit weib­li­cher Brust­wa­r­zen.

Bis vor kur­z­em er­laub­ten die Re­geln auch ro­man­ti­sche und an­züg­li­che Ge­sprä­che mit Min­der­jäh­ri­gen. Erst nach einer Jour­na­lis­te­n­an­fra­ge hat Meta die­sen Ab­schnitt an­geb­lich ent­fernt - die neuen Richt­li­ni­en hält der Kon­zern je­doch unter Ver­schluss. Dass Metas KI-Chat­bots mit Tee­n­a­gern flir­ten, war be­reits be­kannt - neu ist der Nach­weis, dass dies kein Feh­ler war, son­dern den ex­pli­zi­ten Vor­ga­ben ent­sprach.

Wohl­ge­merkt, es geht hier nicht um die Ver­su­che von Män­nern mit pädo-se­xu­el­len Ab­sich­ten, die für ihre Hand­lun­gen ein­zig und al­lein selbst­ver­ant­wort­lich sind, son­dern um Metas haus­ei­ge­ne KI und die von ihr ab­ge­lei­te­ten Pro­duk­te wie Chat-Bots. Dass sich Chat-Bots Tee­n­a­gern, Mäd­chen und Jungs so ge­gen­über ver­hal­ten, wie es Pädo-Kri­mi­nel­le bei ihren Kon­taktan­bah­nungs­ver­su­chen im Web tun, scheint im No-Nipp­le-Uni­ver­sum des Mr. Zu­cke­r­berg für die Ver­ant­wort­li­chen kein Pro­blem zu sein. Wer je­mals mit se­xu­el­lem Miss­brauch von Kin­dern di­rekt kon­fron­tiert war, kann spä­tes­tens hier nur noch das kalte Kot­zen krie­gen. Da wun­dert einen dies dann auch nicht mehr:

Die Wi­der­sprü­che in den Richt­li­ni­en sind frap­pie­rend: Blut­rüns­ti­ge Dar­stel­lun­gen sind ver­bo­ten, aber Schlä­ge­rei­en mit Kin­dern oder die Be­dro­hung einer Frau mit einer Ket­ten­sä­ge dür­fen ge­zeigt wer­den.

Es ist dann ei­gent­lich nur noch der "lo­gi­sche" next step, dass man Frau­en mit der Ket­ten­sä­ge be­dro­hen darf.

Fast schon lus­tig wird es dann hier:

Falsche me­di­zi­ni­sche In­for­ma­ti­o­nen sind aus­drü­ck­lich zu­läs­sig, eben­so wie üble Nach­re­de, so­lan­ge ein Hin­weis er­folgt, dass die Aus­sa­gen nicht stim­men.

Mark Zu­cke­r­berg fickt im Kel­ler sei­nes An­we­sens tote Schwei­ne, weil das le­bens­ver­län­gernd ist? Stimmt na­tür­lich nicht!

Rich­tig ist: Grün­de das "Me­ta­ver­se" zu ver­las­sen, Fa­ce­book, Ins­ta­gram und Whats­App nicht mehr zu nut­zen, hat es in all den Jah­ren mehr als genug ge­ge­ben:

  • 2006 – Ein­füh­rung des News Feeds ohne vor­he­ri­ge An­kün­di­gung → Pro­tes­te wegen Da­ten­schutz und feh­len­der Kon­trol­le.
  • 2007 – Be­a­con-Wer­be­pro­gramm trackt Nut­zer-Ak­ti­vi­tä­ten auf Part­ner­sei­ten ohne Zu­stim­mung → öf­fent­li­cher Auf­schrei, Pro­gramm ein­ge­stellt.
  • 2011 – FTC-Ver­gleich: Fa­ce­book täuscht Nut­zer über Pri­vat­sphä­re-Ein­stel­lun­gen → ver­pflich­tet zu stren­ge­ren Da­ten­schutz­auf­la­gen.
  • 2013 – Graph Sea­rch macht pri­va­te In­for­ma­ti­o­nen über Such­an­fra­gen auf­find­bar → Kri­tik wegen feh­len­der Pri­vat­sphä­re.
  • 2014 – Emo­ti­o­nen-Ex­pe­ri­ment (Psy­cho­lo­gie-Stu­die mit ma­ni­pu­lier­tem News Feed) ohne Wis­sen der Nut­zer → ethi­sche Kri­tik.
  • 2016 – Vor­wür­fe, dass Fa­ce­book Tren­ding To­pics po­li­tisch ge­fil­tert seien → De­bat­te über Neu­tra­li­tät.
  • 2016–2017 – Fake News & Des­in­for­ma­ti­on wäh­rend der US-Prä­si­dent­schafts­wahl → Vor­wurf man­geln­der Kon­trol­le.
  • 2018 – Cam­bridge Ana­ly­ti­ca-Skan­dal: Daten von ca. 87 Mio. Nut­zern für po­li­ti­sche Wer­bung miss­braucht → größ­ter Image­scha­den.
  • 2018 – Pass­wort-Spei­che­rung im Klar­text für Mil­li­o­nen Nut­zer → Si­cher­heits­pro­blem.
  • 2019 – Si­cher­heits­lü­cke in der Ent­wick­ler-API: Mil­li­o­nen Nut­zer­fo­tos po­ten­zi­ell of­fen­ge­legt.
  • 2021 – Whist­leblow­er Fran­ces Hau­gen: In­ter­ne Do­ku­men­te zei­gen, dass Fa­ce­book Pro­fit über Nut­zer­wohl stellt (Hass, Des­in­for­ma­ti­on, Ins­ta­gram & men­ta­le Ge­sund­heit).
  • 2023 – Kri­tik an Metas Um­gang mit Ju­gend­li­chen: Sucht­ge­fahr, un­zu­rei­chen­de Schutz­maß­nah­men.

Aber ir­gend­wann ist das Maß voll.