• Über WordPress
    • WordPress.org
    • Dokumentation
    • Support
    • Feedback
  • Anmelden
  • Unsere Angebote

    Online-Kurse

    • BFP Begleitkurs Digital
    • Big Data Literacy
    • Digital gegen Antisemitismus
    • eTeaching Expert
    • EOP Begleitkurs Digital
    • Facharbeit schreiben
    • Praxissemester Digital
    • Veränderung in der Schule bewirken
    • Visionsentwicklung

    Lernmodule

    • Bildungschancen
    • Coaching und Beratung
    • Digitale Lernmaterialien
    • Diversität
    • Sonderpäd. Materialien
    • Methoden
    Teaser für die Fortbildung eTeaching Expert

    eTeaching Expert

    Das Schul­netz­werk im ZfL hat eine kos­ten­freie Fort­bil­dung zum eTea­ching Expert kon­zi­piert, die einen Online-Kurs und einen Blog mit eTea­ching ‑Impu­len beinhaltet.

    Weiterlesen

  • Zum ZfL
Digitale Lehre
  • Unsere Angebote

    Online-Kurse

    • BFP Begleitkurs Digital
    • Big Data Literacy
    • Digital gegen Antisemitismus
    • eTeaching Expert
    • EOP Begleitkurs Digital
    • Facharbeit schreiben
    • Praxissemester Digital
    • Veränderung in der Schule bewirken
    • Visionsentwicklung

    Lernmodule

    • Bildungschancen
    • Coaching und Beratung
    • Digitale Lernmaterialien
    • Diversität
    • Sonderpäd. Materialien
    • Methoden
    Teaser für die Fortbildung eTeaching Expert

    eTeaching Expert

    Das Schul­netz­werk im ZfL hat eine kos­ten­freie Fort­bil­dung zum eTea­ching Expert kon­zi­piert, die einen Online-Kurs und einen Blog mit eTea­ching ‑Impu­len beinhaltet.

    Weiterlesen

  • Zum ZfL

Warum ich etwas zu verbergen habe?

Startseite » Big Data Literacy » Warum ich etwas zu verbergen habe?

Warum ich etwas zu verbergen habe?

In die­ser ers­ten Sto­ry geht es dar­um, die immer wie­der zu hören­de Aus­sa­ge „Ich habe doch nichts zu ver­ber­gen” grund­sätz­lich in Fra­ge zu stel­len. Dazu wer­den aktu­el­le Argu­men­ta­ti­ons­mus­ter und his­to­ri­sche Bei­spie­le zusammengeführt.

„Man gebe mir sechs Zei­len, geschrie­ben von dem red­lichs­ten Men­schen, und ich wer­de dar­in etwas fin­den, um ihn auf­hän­gen zu lassen.“
(Kar­di­nal Riche­lieu, gefun­den bei Bruce Schneier)

„Ein sanf­tes Schaf ist des Wol­fes Leckerbissen.“
(Alex­an­der Solschenizyn) 

„Ich habe doch nichts zu verbergen!”

Per­so­nen­be­zo­ge­ne Daten

Ein­mal gespei­chert kön­nen den Kon­text ihrer Erfas­sung und den ursprüng­li­chen Zweck ihrer Erhe­bung ver­las­sen und für neue Zwe­cke ver­wen­det wer­den. Bei­spie­le aus der Ver­gan­gen­heit sind die Erfas­sung der Jüdin­nen und Juden in einer sog. „Juden­kar­tei“ unter Rück­griff auf die Mit­glie­der­lis­ten jüdi­scher Ver­ei­ne und Orga­ni­sa­tio­nen im natio­nal­so­zia­lis­ti­schen Deutsch­land oder das 1936 in den Nie­der­lan­den mit Hil­fe von Hol­le­rith-Loch­kar­ten erstell­te Bevöl­ke­rungs­re­gis­ter, das auch die Reli­gi­ons­zu­ge­hö­rig­keit erhob. Die­ses Regis­ter wur­de wäh­rend der Besat­zungs­zeit den nie­der­län­di­schen Jüdin­nen und Juden zum Ver­häng­nis. Das Hol­le­rith-Loch­kar­ten­ver­fah­ren ermög­lich­te die schnel­le Ver­ar­bei­tung von per­so­nen­be­zo­ge­nen Daten und wur­de auch zur Selek­ti­on in Ausch­witz ein­ge­setzt.1

In neue­rer Zeit ist der geplan­te Aus­bau des Aus­län­der­zen­tral­re­gis­ter (AZR) in die Kri­tik gera­ten, weil es per­so­nen­be­zo­ge­ne Daten, etwa poli­ti­sche Über­zeu­gun­gen, Flucht­grün­de, sexu­el­le Ori­en­tie­rung oder Anga­ben zu Fami­lie, Bil­dung und Gesund­heit, von mehr als 19 Mil­lio­nen Men­schen erfasst. Die Gesell­schaft für Frei­heits­rech­te (GFF) warnt davor, dass die­se Daten auch in die Hän­de von Ver­fol­ger­staa­ten fal­len und so die Betrof­fe­nen in Lebens­ge­fahr brin­gen kön­nen.2

 

1. Welche Annahmen liegen dieser Behauptung zugrunde?

Der Behaup­tung „Ich habe doch nichts zu ver­ber­gen“ ist in vie­ler­lei Hin­sicht fahr­läs­sig, aber auch schick­sal­er­ge­ben und hilft nicht wei­ter bei der Adres­sie­rung der eigent­li­chen Pro­ble­me. Natür­lich hat jeder Mensch etwas zu ver­ber­gen und das soll er auch, aber die eigent­li­che Fra­ge ist, ob es zwi­schen den Mühl­stei­nen des digi­ta­len Über­wa­chungs­ka­pi­ta­lis­mus und den Erwar­tun­gen des neo­li­be­ra­len Staa­tes nicht nur etwas zu ver­ber­gen, son­dern auch etwas zu gewin­nen gibt, näm­lich ein frei­es und nicht von weni­gen Play­ern vor­her­be­stimm­tes Leben.

Das Argu­ment beruht auf meh­re­ren Annahmen:

„Meine Privatsphäre ist mir nicht wichtig“

Die­ses Argu­ment rekur­riert auf ein Daten­schutz­ver­ständ­nis, nach­dem die Pri­vat­sphä­re ledig­lich vor Ein­grif­fen von außen geschützt wer­den müs­se, um ver­trau­li­che Güter und grö­ße­re Geheim­nis­se vor Dieb­stahl oder Zweck­ent­frem­dung zu bewah­ren. Wenn man nun annimmt, dass es im „‘Tre­sor unse­rer Pri­vat­sphä­re‘ nichts zu holen“ gibt, wie Evge­ny Moro­zov es for­mu­liert, „ist es egal, wie oft die Bank über­fal­len wird.“ 3

„Meine Daten sind nicht interessant genug“

Die Annah­me ist bei Men­schen anzu­tref­fen, die für sich bean­spru­chen, „nor­mal“ oder nicht „inter­es­sant“ oder „ver­däch­tig“ genug zu sein und des­halb glau­ben, weder ins Visier der Straf­ver­fol­gungs­be­hör­den noch von Arbeit­ge­bern oder Inter­net-Kon­zer­nen zu gera­ten.4 Häu­fig wird auch auf die schein­bar man­geln­de Aus­sa­ge­kraft der eige­nen Daten oder ihre Wert­lo­sig­keit und Bana­li­tät ver­wie­sen. In die­ser Les­art erfüllt „nor­ma­les“ Ver­hal­ten eine Art Schutz­funk­ti­on, die Daten schein­bar unat­trak­tiv mache. Sie ist bei Men­schen anzu­tref­fen, die bis­her kei­ne nega­ti­ven Erfah­run­gen mit Vor­her­sa­ge-Sys­te­men gemacht haben.

„Ich lasse mich nicht beeinflussen“

Nach Jaron Lanier sind es häu­fig tech­ni­kaf­fi­ne Men­schen, die sich unbe­ein­flusst von den gro­ßen Tech-Kon­zer­nen wäh­nen. Sie wür­den allen Erns­tes behaup­ten, „gigan­ti­sche Super­com­pu­ter, die irgend­wo in abso­lu­ter Ver­bor­gen­heit ope­rie­ren, hät­ten kei­nen Ein­fluss auf ihr Leben.“ 5 Die­se Behaup­tung wider­sprä­che auch allen Erfah­run­gen und erschei­ne wenig über­zeu­gend ange­sichts des immensen Reich­tums eini­ger weni­ger Player.

Ple­nty to Hide — In sei­nem Vor­trag zeigt And­res Dewes anhand rea­ler Daten­sät­ze, wie ein­fach es ist, aus schein­bar unzu­sam­men­hän­gen­den Daten mit­tels Daten­ana­ly­se sehr pri­va­te Din­ge über Men­schen her­aus­zu­fin­den. Er plä­diert dafür, per­sön­li­che Daten nicht in ers­ter Linie als kost­ba­re Res­sour­ce zu betrach­ten, die aus­ge­beu­tet wer­den soll­te, son­dern eher als gif­ti­ges Abfall­pro­dukt, mit dem vor­sich­tig umge­gan­gen wer­den muss.

Foto: Dmi­try Ratush­ny von Unsplash

2. Wo ist das Problem?

Unsere Zukunft

Nach Moro­zov bezieht sich die­se Vor­stel­lung im Wesent­li­chen auf die Ver­gan­gen­heit. Des­halb schlägt er vor, sich „von die­sem theo­re­ti­schen Vor­ur­teil frei­zu­ma­chen“6, dass es beim Daten­schutz um den Schutz von in der Ver­gan­gen­heit lie­gen­den Geheim­nis­sen gehe, die es zu ver­ber­gen gel­te, son­dern um zukünf­ti­ge Lebens­chan­cen und die Mög­lich­keit, eine Iden­ti­tät jen­seits von Vor­her­sa­gen frei wäh­len zu kön­nen. Moro­zov wirbt dafür, Daten­schutz als Mög­lich­keit zu begrei­fen, „eine alter­na­ti­ve Zukunft zu leben – eine, die uns von nie­man­dem auf­ge­zwun­gen wird, […] [denn] dann wür­den wir erken­nen, dass die gegen­wär­ti­gen Pro­zes­se, die alles quan­ti­fi­zie­ren und data­fi­zie­ren, die­se Mög­lich­keit stark ein­schrän­ken.“7 Moro­zov warnt vor einem in der Zukunft lie­gen­den Ver­lust, näm­lich die „Art von Mensch […] [zu sein, die wir] als Fol­ge all des Daten­tei­lens wahr­schein­lich nicht mehr wer­den.“8 Denn je mehr Daten über Men­schen gesam­melt wer­den, des­to spär­li­cher wer­den die poten­ti­el­len Mög­lich­kei­ten in der Zukunft, „was wir wer­den könn­ten, jen­seits der sozia­len, poli­ti­schen und geschäft­li­chen Erwar­tun­gen, die uns von den Insti­tu­tio­nen, mit denen wir zu tun haben, auf­er­legt wer­den.“9 Im Ange­sicht der rech­ne­ri­schen Gewiss­heit von Maschi­nen­in­tel­li­genz sieht Shosha­na Zub­off „unser natür­li­ches Recht auf das Futur […] [in Gefahr,] das dem Ein­zel­nen die Fähig­keit ver­leiht, sich eine Zukunft vor­zu­stel­len, vor­zu­neh­men, zu ver­spre­chen und auf­zu­bau­en.“10 Für Jaron Lanier besie­gelt der geschick­te Ein­satz von Big Data einen unein­hol­ba­ren Vor­sprung: „Wer die leis­tungs­fä­higs­ten Com­pu­ter hat, ent­schei­det in einer hoch­ent­wi­ckel­ten Gesell­schaft über das Schick­sal aller ande­ren.“11

Es gibt keine unwichtigen Daten

Leicht zugäng­li­che Daten etwa aus Social-Media-Akti­vi­tä­ten, aus öffent­li­chen Über­wa­chungs­ka­me­ras oder Smar­thome-Tech­no­lo­gien wie etwa Video-Klin­geln und Haus­tür-Kame­ras der Ama­zon-Toch­ter Ring wer­den welt­weit als Trai­nings­da­ten für maschi­nel­les Ler­nen ein­ge­setzt. Die Trai­nings­da­ten­sät­ze sind die Grund­la­ge dafür, mensch­li­ches Ver­hal­ten auto­ma­ti­siert ein­schät­zen und nach vor­ge­ge­be­nen Kate­go­rien bewer­ten zu kön­nen. Hier­bei kann es von Inter­es­se sein, „ver­däch­ti­ge“ Situa­tio­nen zu iden­ti­fi­zie­ren und „nor­ma­les“ von „abwei­chen­dem“ Ver­hal­ten zu unter­schie­den. Damit besteht die Gefahr, das mensch­li­ches Ver­hal­ten im öffent­li­chen Raum nach den Vor­ga­ben eini­ger weni­ger Men­schen gelenkt und nor­miert wird. Das Künst­ler­kol­lek­tiv Kai­rUs wirft mit sei­nem Pro­jekt „Sus­pi­cious Beha­vi­or“ des­halb die Fra­ge auf, ob es bei dem Trai­ning von Maschi­nen, die mensch­li­ches Ver­hal­ten ver­ste­hen sol­len, nicht auch um die Pro­gram­mie­rung mensch­li­chen Ver­hal­tens gehe.

Sus­pi­cious Beha­vi­or — Das Pro­jekt wagt einen Blick in eine Welt, in der Künst­li­che Intel­li­gen­zen trai­niert wer­den, ver­däch­ti­ge Situa­tio­nen auto­ma­tisch zu erken­nen und „nor­ma­les“ von „anor­ma­lem“ Ver­hal­ten zu unter­schei­den. Ziel des Pro­jekts ist es, zu zei­gen, wie pro­ble­ma­tisch die­se Prak­ti­ken sind und wie groß die Gefahr ist, dass auch mensch­li­ches Ver­hal­ten pro­gram­miert wird.

Foto: Vic­tor von Unsplash

Neben der Ein­schät­zung von zurück­lie­gen­dem oder gegen­wär­ti­gem Ver­hal­ten ist die Ablei­tung zukünf­ti­gen Ver­hal­tens durch Pro­gno­se­sys­te­me ein wei­te­res gro­ßes Geschäfts­feld. Die­se Sys­te­me ent­zie­hen sich kom­plett der mensch­li­chen Wahr­neh­mung und tref­fen für Men­schen Ent­schei­dun­gen, von denen die­se gar nicht wis­sen, dass sie getrof­fen werden.

In einem lesens­wer­ten Arti­kel beschreibt Rai­ner Mühl­hoff auf weni­gen Sei­ten, wel­che Umwe­ge die gro­ßen Online-Platt­for­men neh­men, um an die letzt­lich aus­schlag­ge­ben­den und schwer zugäng­li­chen Daten der Nut­ze­rin­nen und Nut­zer wie etwa Gesund­heits- oder Finanz­in­for­ma­tio­nen zu gelan­gen.12 Die sog. prä­di­ka­ti­ve Ana­ly­tik nutzt hier­zu unge­schütz­te und schein­bar unwich­ti­ge Daten, etwas Ver­hal­tens- und Nut­zungs­da­ten, und ord­net die Ein­zel­fäl­le nach sta­tis­ti­schen Para­me­tern Kate­go­rien mit ähn­li­chen Eigen­schaf­ten zu. Es wer­den also nicht ein­zel­ne Men­schen ana­ly­siert, son­dern Kol­lek­ti­ve, die unsicht­ba­re Klas­sen bil­den. Sobald für ein sol­ches Kol­lek­tiv sowohl die ein­fa­chen als auch die sen­si­blen Daten vor­lie­gen, kön­nen durch maschi­nel­les Ler­nen Kor­re­la­tio­nen ermit­telt wer­den, die Rück­schlüs­se auf sen­si­ble Daten auch bei jenen Nut­ze­rin­nen und Nut­zer zulas­sen, die die­se nicht ange­ge­ben haben und von denen nur die ein­fa­chen Daten bekannt sind. Mühl­hoff warnt vor den nega­ti­ven Aus­wir­kun­gen des Ein­sat­zes die­ser Model­le in der öffent­li­chen Ver­wal­tung, die den Effekt haben, „sozia­le Ungleich­heit zu zemen­tie­ren oder sogar wei­ter anzu­fa­chen.“13 Dies tref­fe „über­pro­por­tio­nal die Armen, weni­ger Gebil­de­ten, Schwa­chen, Kran­ken und sozio­öko­no­misch Benach­tei­lig­ten“14, die sich unver­se­hens in einer sozia­len Klas­se wie­der­fin­den, aus der es kaum ein Ent­rin­nen gibt. Die Behaup­tung „Ich habe doch nichts zu ver­ber­gen“ schafft also über­haupt erst die Grund­la­ge zur Erstel­lung von Trai­nings­da­ten­sät­zen und KI-basier­ten Pro­gno­sen. Dabei reicht es aus, wenn eine gesell­schaft­li­che Min­der­heit kei­ne Pro­ble­me damit hat, ihre ein­fa­chen und sen­si­blen Daten zur Ver­fü­gung zu stel­len, um Rück­schlüs­se auf die sen­si­blen Infor­ma­tio­nen ande­rer Men­schen zu ermöglichen.

Sind Algo­rith­men gerecht? — Lore­na Jau­me-Palasí und Tobi­as Matz­ner ord­nen den Begriff der Künst­li­chen Intel­li­genz ein, beschrei­ben die Kon­zep­te dahin­ter und dis­ku­tie­ren, inwie­weit Gerech­tig­keit in mathe­ma­ti­schen Model­len über­haupt dar­stell­bar ist. Die­se Model­le bil­den Kate­go­rien, die aber die Ambi­va­len­zen des mensch­li­chen Lebens nicht ein­fach abbil­den können.

Foto: Mar­kus Spi­ske von Unsplash

#ever­y­na­me­counts — Das Pro­jekt ist sehr gut geeig­net, um die Erfas­sung, Klas­si­fi­zie­rung und Bewer­tung von Men­schen wäh­rend der NS-Zeit in der Schu­le oder in der außer­schu­li­schen Bil­dung zu the­ma­ti­sie­ren. Die Arbeit mit den gescann­ten Ori­gi­nal­do­ku­men­ten för­dert nicht nur das for­schend-ent­de­cken­de Ler­nen, son­dern rückt auch ins Bewusst­sein, dass der Selek­ti­on an der Ram­pe die sta­tis­ti­sche Erfas­sung und die in ihr ein­ge­schrie­be­ne Ideo­lo­gie vor­an­ging. Eine War­nung vor der rest­lo­sen Erfas­sung von Menschen.

Foto: Jon Tyson von Unsplash

Normalität als Schutz?

Im Ange­sicht einer all­ge­gen­wär­ti­gen, para­no­iden Über­wa­chungs­pra­xis läuft die Fra­ge, was ein­zel­ne Per­so­nen für nor­mal hal­ten, ins Lee­re. Ent­schei­dend ist, wer fest­legt, was als nor­ma­les und abwei­chen­des Ver­hal­ten zu gel­ten hat. Die Ent­schei­dun­gen dar­über dif­fun­die­ren lang­sam in pri­va­te Unter­neh­mens­zen­tra­len und staat­li­che Sicher­heits­be­hör­den und ent­zie­hen sich Aus­hand­lungs­pro­zes­sen. Dies bele­gen Bei­spie­le aus dem Lern- und Berufsalltag.

Bei­spiel “Online-Proc­to­ring“

Im Juni 2021 erhielt die Münch­ner Proc­to­rio GmbH den Big­Bro­the­rA­ward 2021 in der Kate­go­rie Bil­dung. Das Unter­neh­men hat eine voll­au­to­ma­ti­sche und „KI“-gestützte Beauf­sich­ti­gung von Online-Prü­fun­gen in der häus­li­chen Umge­bung der Prüf­lin­ge auf den Markt gebracht. In sei­ner Lau­da­tio kri­ti­siert Prof. Dr. Peter Wed­de „auto­ma­ti­sier­te Bewer­tun­gen des mensch­li­chen Ver­hal­tens […] [, weil die Unschulds­ver­mu­tung] durch For­men der ‚auto­ma­ti­sier­ten Ver­dachts­be­grün­dung’“15 auf­ge­ho­ben und das beob­ach­te­te Ver­hal­ten der Prüf­lin­ge nur noch erfasst, aber nicht mehr ver­stan­den wer­de. Die Soft­ware glei­che das Ver­hal­ten der Prüf­lin­ge mit Mus­tern ab, die ande­re Men­schen als „nor­mal“ defi­niert und in der Soft­ware als „Norm­ver­hal­ten“ hin­ter­legt haben und kön­ne dar­aus nega­ti­ve Schluss­fol­ge­run­gen zie­hen. Wed­de bezieht sich auf Berich­te von Stu­die­ren­den, wonach die Soft­ware häu­fi­ge Kopf­be­we­gun­gen, lau­tes Vor­le­sen der Fra­gen, umher­schwei­fen­de Bli­cke, Ges­ten, lau­te Neben­ge­räu­sche, häu­fi­ges Scrol­len, Wei­nen vor dem Bild­schirm oder schnel­le Maus­be­we­gun­gen als „abwei­chend“ und damit als ver­däch­tig bewer­tet habe. Die Ver­dachts­stu­fe erhö­he sich auto­ma­tisch, wenn Prüf­lin­ge Toi­let­ten­pau­sen ein­le­gen oder sich in ihrem Ver­hal­ten vom Rest der Klas­se unter­schei­den.16

Das Bei­spiel zeigt, wie die Aus­wer­tung von Daten­spu­ren mensch­li­ches Ver­hal­ten in ein eiser­nes Kor­sett zwin­gen kann und die Recht­fer­ti­gungs­last den Indi­vi­du­en auf­bür­det. Über­dies nimmt die­se Prü­fungs­me­tho­de den Prüf­lin­gen ihre Auto­no­mie und ist dis­kri­mi­nie­rend, weil auf­grund sozia­ler Ungleich­hei­ten nicht alle Prüf­lin­ge die von der Soft­ware gefor­der­ten Vor­aus­set­zun­gen erfül­len können.

Bei­spiel KI-gesteu­er­te Kameras 

Nach einem Bericht des Maga­zins „Vice“17 instal­liert Ama­zon seit Früh­jahr 2021 KI-gesteu­er­te Kame­ras des KI-Tech-Star­tups Net­ra­dy­ne in die Fahr­zeu­ge sei­ner Lie­fer­flot­te, die „Ereig­nis­se“ wie zu dich­tes Auf­fah­ren, Ver­stö­ße gegen Stopp­schil­der oder abge­lenk­tes Fah­ren auf­zeich­net und den Fah­rern Echt­zeit­war­nun­gen über ihr Fahr­ver­hal­ten lie­fert. Die Kame­ra besteht aus vier Lin­sen, von denen eine stän­dig auf den Fah­rer gerich­tet ist, ihn stän­dig anpiepst und bei Fehl­ver­hal­ten mit einer künst­li­chen Stim­me anspricht. Im Gespräch mit Mother­board berich­ten die Fah­rer, dass sie für „Ereig­nis­se“ bestraft wer­den, die ent­we­der gar nicht statt­ge­fun­den haben wie etwa fal­sche Stopp­schild­ver­stö­ße, weil die Kame­ra Vor­fahrt­schil­der für Stopp­schil­der hält, die sich ihrer Kon­trol­le ent­zie­hen, etwa wenn ande­re Ver­kehrs­teil­neh­mer die Lie­fer­wa­gen im dich­ten Ver­kehr schnei­den oder vor ihnen abbrem­sen oder die ganz nor­ma­les Fahr­ver­hal­ten dar­stel­len, etwa wenn sie in den Sei­ten­spie­gel oder über ihre Schul­ter schau­en, Radio­sen­der ein­stel­len oder nach unten bli­cken. Die Kame­ras erfas­sen Vor­fäl­le, die sie auf­grund der Kom­ple­xi­tät des Ver­kehrs häu­fig nicht rich­tig ein­ord­nen und „ver­ste­hen“ kön­nen. Das hat Fol­gen für die Fah­re­rin­nen und Fah­rer und die von Ama­zon beauf­trag­ten Lie­fer­fir­men, da es kei­nen Raum gibt, die Daten der Kame­ra zu hin­ter­fra­gen oder feh­ler­haf­te Ver­stö­ße bei Ama­zon anzufechten.

Jedes „Ereig­nis“ wirkt sich auf den Score der Fah­re­rin­nen und Fah­rer aus, an den Boni, Prä­mi­en und Son­der­zah­lun­gen gekop­pelt sind. Die Aus­wer­tung der „Ereig­nis­se“ flie­ßen in einen Score ein, der das Ver­hal­ten in Kate­go­rien von „fan­tas­tisch” über „gut” und „mit­tel­mä­ßig” bis hin zu „man­gel­haft” ein­ord­net. Errei­chen die Fah­re­rin­nen und Fah­rer in den wöchent­li­chen Aus­wer­tun­gen kei­ne „fan­tas­ti­sche“ Leis­tungs­be­wer­tung, ver­lie­ren die Ama­zon-Lie­fer­dienst­part­ner die für das wirt­schaft­li­che Über­le­ben not­wen­di­gen Prä­mi­en. „Vice“ ver­weist auf einen Bericht des AI Now Insti­tu­te, dem­zu­fol­ge Fir­men wie Ama­zon durch den Ein­satz von KI die Machtasym­me­trien zwi­schen Arbei­tern und Arbeit­ge­bern ver­stär­ken, ihre Gewin­ne stei­gern und Löh­ne sen­ken.18 Das Online-Pre­ka­ri­at wächst. Nach Schät­zun­gen der EU arbei­ten rund 28 Mil­lio­nen Men­schen als Solo­selb­stän­di­ge für Tech-Fir­men wie Uber, Hel­pling oder Deli­ver­oo 19 Bereits 2014 hat Jaron Lanier geschrie­ben, dass der Ein­satz von hoch­ef­fi­zi­en­ten Tech­no­lo­gien „ein­fa­che Leu­te immer mehr ihrer Chan­cen“ berau­be und „nicht in ein Zeit­al­ter des Wohl­stands füh­ren“ wer­de.20

Legalität als Schutz vor Verfolgung und Überwachung?

Die Fra­ge, in wel­chen sen­si­blen Kon­tex­ten man Daten­spu­ren über­haupt noch hin­ter­las­sen soll­te, wird in naher Zukunft immer dring­li­cher wer­den. Mit der sog. E‑E­vi­dence-Ver­ord­nung plant die EU-Kom­mis­si­on eine Alter­na­ti­ve zum Rechts­hil­fe­ver­fah­ren und möch­te Ermitt­lungs­be­hör­den in EU-Mit­glieds­staa­ten in die Lage ver­set­zen, in straf­recht­li­chen Ver­fah­ren schnell und unkom­pli­ziert auf Cloud-Daten, etwa Bestands- oder Inhalts­da­ten in einem ande­ren EU-Land zugrei­fen zu kön­nen. Im Ergeb­nis könn­te auf Anord­nung eines Gerichts in einem EU-Mit­glieds­staat ein Pro­vi­der in einem ande­ren Mit­glieds­staat dazu ver­pflich­tet wer­den, per­so­nen­be­zo­ge­ne Daten her­aus­zu­ge­ben – und dies, ohne das die Betrof­fe­nen oder die zustän­di­gen Jus­tiz­be­hör­den dar­über infor­miert wer­den und unab­hän­gig davon, ob die ver­folg­te Tat in dem ersuch­ten Land über­haupt als Straf­tat gilt. Lega­les Ver­hal­ten in Deutsch­land wäre damit poten­ti­ell der Straf­ver­fol­gung durch ein ande­res Land aus­ge­setzt. Das bedeu­tet, dass zum Bei­spiel Akti­vis­tin­nen, die sich von Deutsch­land aus für die Rech­te von pol­ni­schen Frau­en ein­set­zen, die einen Schwan­ger­schafts­ab­bruch vor­neh­men wol­len, mit Straf­ver­fol­gung sei­tens der pol­ni­schen Behör­den rech­nen müssen.

Das Diktum Eric Schmidts

Die Behaup­tung „Ich habe doch nichts zu ver­ber­gen“ ist im Grun­de eine Ver­tei­di­gung der Daten­sam­mel­prak­ti­ken der NSA oder des Alpha­bet-Kon­zerns und kann die Nähe zu einem Aus­spruch Eric Schmidts nicht leug­nen. Am 11. April 2009 erklär­te Schmidt, sei­ner­zeit CEO von Goog­le, gegen­über dem US-Fern­seh­sen­der CNBC mit Blick auf die Daten­sam­mel­prak­ti­ken des Kon­zerns: „If you have some­thing that you don’t want anyo­ne to know, may­be you should­n’t be doing it in the first place.“21 Mit der Unter­stel­lung, das Pri­vat­heit nur für unan­stän­di­ge Men­schen, die etwas auf dem Kerb­holz haben, nütz­lich sei, deklas­siert Schmidt ein Men­schen­recht, näm­lich das in Jahr­hun­der­ten erkämpf­te Recht auf freie Ent­fal­tung der Per­sön­lich­keit. Dar­um kreist auch die Behaup­tung „Ich habe doch nichts zu ver­ber­gen: weil man nichts Ver­däch­ti­ges und Unge­setz­li­ches im Schil­de füh­re, habe man auch kein Pro­blem damit, wenn die eige­nen Daten frei im Netz flot­tie­ren. Der US-Sicher­heits­ex­per­te Bruce Schnei­er macht dem­ge­gen­über dar­auf auf­merk­sam, dass Pri­vat­heit uns vor Miss­brauch durch die Macht­ha­ber schüt­ze, selbst wenn wir uns zum Zeit­punkt der Über­wa­chung kei­nes Ver­ge­hens schul­dig gemacht haben.22

3. Was steht auf dem Spiel?

Wer Daten­spu­ren hin­ter­lässt, ver­liert die Kon­trol­le über die Deu­tung des eige­nen Lebens. Ande­re über­neh­men dann im Ver­bor­ge­nen das Geschäft der Bewer­tung und Beur­tei­lung, der Ver­hal­tens­len­kung, der Ver­ga­be von Optio­nen und der Ein­schrän­kung von Hand­lungs­frei­heit. Die schie­re Exis­tenz von Daten­spu­ren lädt dazu ein, Urtei­le über Men­schen zu fäl­len. Und wem wir am Ende mehr geglaubt? Den Men­schen selbst oder den Urtei­len über Men­schen? Dem tat­säch­li­chen Ver­hal­ten oder den Daten über mensch­li­ches Ver­hal­ten? Wenn Daten als abso­lu­te Wahr­heit inter­pre­tiert wer­den, steht die Glaub­wür­dig­keit und Inte­gri­tät eines jeden Men­schen auf dem Spiel. Die Ansicht: „Ich habe doch nichts zu ver­ber­gen“ ist daher naiv und brand­ge­fähr­lich. Sie führt dazu, sich die­sen Urtei­len wehr­los und ohne Not aus­zu­lie­fern. Ange­sichts der Machtasym­me­trien, die der digi­ta­le Über­wa­chungs­ka­pi­ta­lis­mus her­vor­bringt, eine durch­aus rea­le Gefahr. Die Geschich­te über das eige­ne Leben wird dann von ande­ren erzählt.

Das zer­teil­te Ich — Der Bei­trag von Tho­mas Ker­n­ert ord­net Big Data-Tech­no­lo­gien ein in die Jahr­hun­der­te alten Ver­su­che, Gesell­schaf­ten zu kon­trol­lie­ren, zu über­wa­chen, Men­schen zu klas­si­fi­zie­ren, Zutrit­te für die Einen zu gewäh­ren und uner­wünsch­te Indi­vi­du­en fern­zu­hal­ten. Dabei ste­hen nicht Men­schen im Zen­trum der Ana­ly­se, son­dern die Kate­go­rien, denen sie zuge­ord­net wer­den. Das Sub­jekt ist nur noch dann von Inter­es­se, wenn es einen Ver­dacht auf sich zieht.

Foto: Kel­vin Han von Unsplash

Quel­len

 

1 Vgl. Aly, G., Roth, K.-H. (1984): Die rest­lo­se Erfas­sung. Volks­zäh­len, Iden­ti­fi­zie­ren, Aus­son­dern im Natio­nal­so­zia­lis­mus. Ber­lin.

2 Vgl. Bieli­cki, J. (2022, 14. Janu­ar). Kla­gen gegen Aus­län­der­re­gis­ter. Akti­vis­ten kri­ti­sie­ren die Spei­che­rung teils sen­si­bler Daten. Süd­deut­sche Zei­tung, Nr. 10, hier S. 6.

3 Moro­zov, E. (2015, 9. März). „Ich habe doch nichts zu ver­ber­gen“. Essay. Aus Poli­tik und Zeit­ge­schich­te, 65(11–12), 3–7, hier S. 3.

4 Vgl. Mühl­hoff, R. (2020). Prä­dik­ti­ve Pri­vat­heit. War­um wir alle „etwas zu ver­ber­gen haben“. In Inter­dis­zi­pli­nä­re Arbeits­grup­pe Ver­ant­wor­tung: Maschi­nel­les Ler­nen und Künst­li­che Intel­li­genz der Ber­lin-Bran­den­bur­gi­schen Aka­de­mie der Wis­sen­schaf­ten (Hrsg.), KI als Labo­ra­to­ri­um? Ethik als Auf­ga­be (S. 37–44). Ber­lin-Bran­den­bur­gi­sche Aka­de­mie der Wis­sen­schaf­ten, hier S. 43. https://www.bbaw.de/files-bbaw/user_upload/publikationen/BBAW_Verantwortung-KI‑3–2020_PDF-A-1b.pdf

5 Lanier, J. (2014, 24. April). Wer die Daten hat, bestimmt unser Schick­sal. Frank­fur­ter All­ge­mei­ne Zei­tung. Abge­ru­fen am 17. Mai 2022, von https://​www​.faz​.net/​a​k​t​u​e​l​l​/​f​e​u​i​l​l​e​t​o​n​/​d​e​b​a​t​t​e​n​/​g​o​o​g​l​e​s​-​d​a​t​e​n​m​a​c​h​t​-​w​e​r​-​d​i​e​-​d​a​t​e​n​-​h​a​t​-​b​e​s​t​i​m​m​t​-​u​n​s​e​r​-​s​c​h​i​c​k​s​a​l​-​1​2​9​0​7​0​6​5​.​h​t​m​l​?​p​r​i​n​t​P​a​g​e​d​A​r​t​i​c​l​e​=​t​r​u​e​#​p​a​g​e​I​n​d​e​x_6

6 Moro­zov, 2015, S. 3 f. 

7 Ebd. 

8 Moro­zov, 2015, S. 7.

9  Ebd. 

10 Zub­off, S. (2018). Das Zeit­al­ter des Über­wa­chungs­ka­pi­ta­lis­mus. Frankfurt/New York: Cam­pus, hier S. 36.

11 Lanier, 2014.

12 Vgl. Mühl­hoff, 2020.

13 Mühl­hoff, 2020, S. 41.

14 Mühl­hoff, 2020, S. 44.  

15 Wed­de, Peter (2021, 11. Juni). Lau­da­tio anläss­lich der Ver­lei­hung des Big­Bro­the­rA­wards 2021 an Proc­to­rio GmbH in Mün­chen-Unter­föh­ring [Tran­skript]. Big­Bro­the­rA­wards. Abge­ru­fen am 17.Mai 2022, von https://​big​bro​the​ra​wards​.de/​2​0​2​1​/​b​i​l​d​u​n​g​-​p​r​o​c​t​o​r​i​o​#​s​d​f​o​o​t​n​o​t​e​6​sym

16  Ebd. 

17 Vgl. Gur­ley, L. K. (2021, 20. Sep­tem­ber). Amazon’s AI Came­ras Are Punis­hing Dri­vers for Mista­kes They Didn’t Make. Vice. Abge­ru­fen am 17. Mai 2022, von https://​www​.vice​.com/​e​n​/​a​r​t​i​c​l​e​/​8​8​n​p​j​v​/​a​m​a​z​o​n​s​-​a​i​-​c​a​m​e​r​a​s​-​a​r​e​-​p​u​n​i​s​h​i​n​g​-​d​r​i​v​e​r​s​-​f​o​r​-​m​i​s​t​a​k​e​s​-​t​h​e​y​-​d​i​d​n​t​-​m​ake

18 Vgl. Craw­ford, K., Dob­be, R., Dry­er, T., Fried, G., Green, B., Kazi­u­nas, E., Kak, A., Mathur, V., McEl­roy, E., Nill Sán­chez, A., Raji, D., Ran­kin, J. L., Richard­son, R., Schultz, J., Myers West, S., & Whit­taker, M. (2019). ​AI Now 2019 Report​. New York: AI Now Insti­tu­te. https://ainowinstitute.org/AI_Now_2019_Report.html​

19 Vgl. Gross, S. (2021, 10. Dezem­ber). So geht Aus­beu­tung heu­te. Süd­deut­sche Zei­tung, Nr. 286, S. 4.

20 Lanier, 2014.

21 Tate, R. (2009, 12. April). Goog­le CEO: Secrets Are for Fil­thy Peop­le. Gaw­ker. Abge­ru­fen am 17. Mai 2022, von https://​www​.gaw​ker​.com/​5​4​1​9​2​7​1​/​g​o​o​g​l​e​-​c​e​o​-​s​e​c​r​e​t​s​-​a​r​e​-​f​o​r​-​f​i​l​t​h​y​-​p​e​o​ple

22 Vgl. Schnei­er, B. (2006, 19. Mai): The Value of Pri­va­cy. Schnei­er. Abge­ru­fen am 17. Mai 2022, von https://​www​.schnei​er​.com/​b​l​o​g​/​a​r​c​h​i​v​e​s​/​2​0​0​6​/​0​5​/​t​h​e​_​v​a​l​u​e​_​o​f​_​p​r​.​h​tml

Sto­ries für die Schule

Übersicht:

  • Big Data Literacy
    • Über diesen Kurs
    • Fachlicher Hintergrund
      • Leben in der Datengesellschaft
      • Wechselwirkungen zwischen Mensch, Digitaltechnologie und sozialer Welt
      • Was ist “Big Data”?
      • Datenrationalität, Glaube und Diskriminierung
      • Big Data und der „Überwachungskapitalismus“
      • Was bedeutet “Big Data Literacy”?
    • Stories für die Schule
      • Warum ich etwas zu verbergen habe?
      • Wie kann ich selbst mit Daten forschen?
      • Was sagen Daten über das Lernen aus?
      • Was kann ich tun?
    • Literaturliste und weiterführende Hinweise

Fragen oder Probleme?
zfl-digitalelehre@uni-koeln.de


Impressum
Datenschutzvereinbarung

Login

Login with your site account

Lost your password?

Zum Ändern Ihrer Datenschutzeinstellung, z.B. Erteilung oder Widerruf von Einwilligungen, klicken Sie hier: Einstellungen