WEBVTT 00:00:00.000 --> 00:00:22.160 Music. 00:00:22.742 --> 00:00:26.562 Herzlich willkommen zu unserer neunten Folge Dicke Bretter. 00:00:26.902 --> 00:00:33.262 Wir sind heute hier, um mal wieder um dieses schöne Thema EU-Politik zu sprechen. 00:00:34.362 --> 00:00:39.402 Und heute sind wir wieder mal zu zweit beziehungsweise zu dritt. 00:00:40.322 --> 00:00:45.682 Zusammen mit mir ist heute da Constanze. Hallo. Hallo Constanze, schön, dass du da bist. 00:00:45.862 --> 00:00:48.522 Und Elisa kann heute leider nicht 00:00:48.522 --> 00:00:52.802 da sein und deswegen haben wir uns Svea eingeladen. Hallo Svea. Hallo. 00:00:53.342 --> 00:00:58.442 Und ja, wir sprechen heute wieder über EU-Gesetzgebung. 00:00:58.522 --> 00:01:02.542 Wir haben ja irgendwann mal angefangen darüber zu sprechen und uns den Kopf 00:01:02.542 --> 00:01:04.802 darüber zerbrochen, was so die ersten Schritte sind. 00:01:04.982 --> 00:01:08.642 Wir sind nicht ganz bis zum Trilog gekommen und die Chatkontrolle lässt da auch 00:01:08.642 --> 00:01:10.002 noch so ein bisschen auf sich warten. 00:01:10.002 --> 00:01:15.922 Und deswegen dachten wir, wir spulen jetzt mal vor und sprechen heute mal darüber, 00:01:16.222 --> 00:01:19.802 was denn eigentlich passiert, wenn so ein Gesetzgebungsprozess abgeschlossen 00:01:19.802 --> 00:01:23.882 ist und wie das Ganze dann auch umgesetzt wird. 00:01:24.062 --> 00:01:27.002 Und deswegen haben wir, habe ich gerade schon kurz gesagt, SWEA heute hier. 00:01:27.562 --> 00:01:33.262 SWEA ist bei der GFS und kümmert sich genau um dieses Thema. 00:01:33.442 --> 00:01:38.402 SWEA, magst du mal erzählen, wer du bist und was du mit Umsetzung von EU-Gesetzen 00:01:38.402 --> 00:01:41.102 zu tun hast? Ja, sehr gerne. Ich freue mich sehr, hier zu sein. 00:01:41.162 --> 00:01:41.862 Vielen Dank euch beiden. 00:01:42.282 --> 00:01:46.182 Ich bin Svea, ich arbeite bei der Gesellschaft für Freiheitsrechte und leite 00:01:46.182 --> 00:01:48.382 dort ein Projekt, das Center for User Rights heißt. 00:01:48.842 --> 00:01:52.882 Das Center for User Rights bündelt auf der einen Seite Projekte, 00:01:52.882 --> 00:01:56.242 die die GFF schon länger am Laufen hatte im Bereich Plattformregulierung und 00:01:56.242 --> 00:01:57.462 Durchsetzung von Nutzerinnenrechten, 00:01:57.602 --> 00:02:01.862 aber hat dazu nochmal einen neuen strategischen Fokus, nämlich die Durchsetzung 00:02:01.862 --> 00:02:05.102 von Nutzerinnenrechten unter dem Digital Services Act. 00:02:05.102 --> 00:02:09.602 Und der Digital Service Act ist der große neue Rechtsrahmen für Online-Plattformen 00:02:09.602 --> 00:02:10.322 in der Europäischen Union. 00:02:11.103 --> 00:02:16.043 Der letztes Jahr in Kraft getreten ist und kurz davor zu Ende verhandelt worden ist. 00:02:16.223 --> 00:02:20.903 Und der auf der einen Seite quasi die grundlegenden Haftungsregeln für Online-Plattformen 00:02:20.903 --> 00:02:25.703 upgedatet hat, aber vor allem auch viele neue Rechte für NutzerInnen geschaffen hat. 00:02:25.823 --> 00:02:29.043 Und die möchten wir jetzt nutzen und einfordern und durchsetzen. 00:02:29.603 --> 00:02:33.323 Lass mal kurz über die GFF noch reden. Also diese Center gehört zur GFF. 00:02:33.463 --> 00:02:36.943 Die ist ja, also generell, die Gesellschaft für Freiheitsrechte ein bisschen 00:02:36.943 --> 00:02:40.283 mehr in aller Munde, weil die einfach, glaube ich, ziemlich viele Erfolge zu 00:02:40.283 --> 00:02:43.043 verzeichnen hat. aber auch an sehr vielen Fronten kämpft mittlerweile. 00:02:43.783 --> 00:02:48.043 Sag mal ein paar Sätze dazu, wer die jetzt noch nie gehört hat. Was macht die GFF? 00:02:48.483 --> 00:02:54.703 Und wie ist sozusagen in diesem ganzen Sammelsurium an wichtigen Themen diese Center da verortet? 00:02:54.903 --> 00:02:58.543 Ja, die Gesellschaft für Freiheitsrechte ist ein Verein. Wir sitzen in Berlin 00:02:58.543 --> 00:03:02.123 und machen allererster Linie strategische Prozessführung. 00:03:02.263 --> 00:03:06.983 Das heißt, wir versuchen, politische, gesellschaftliche Themen durch die rechtlichen 00:03:06.983 --> 00:03:10.443 Mittel, die uns zur Verfügung stehen, anzugreifen oder zu stärken oder nach 00:03:10.443 --> 00:03:11.943 vorne zu bringen oder auch weiterzuentwickeln. 00:03:12.103 --> 00:03:16.663 In vielen Fällen heißt es, dass die GVF Verfassungsklagen oder Verfassungsbeschwerden schreibt. 00:03:17.323 --> 00:03:22.263 Da ist die GVF auch sehr erfolgreich. Es gibt viele Beispiele von erfolgreichen 00:03:22.263 --> 00:03:24.003 Verfassungsbeschwerden aus verschiedenen Bereichen. 00:03:24.403 --> 00:03:29.403 Equal Pay, aber auch im Bereich Überwachung, Grundrechte sozusagen in verschiedenen 00:03:29.403 --> 00:03:32.183 Bereichen des Lebens und der Gesellschaft. 00:03:32.183 --> 00:03:38.043 Und dazu kommen aber auch noch mal so ein paar speziellere Themen und NutzerInnenrechte 00:03:38.043 --> 00:03:41.423 würde ich sagen ist eins davon, wo die GFF eben seit vielen Jahren dran ist, 00:03:41.463 --> 00:03:45.823 eben auch durchaus über strategische Klagen, auch über politische Arbeit, 00:03:45.923 --> 00:03:49.443 also klassische Policy-Arbeit und jetzt eben mit dem Center for User Rights 00:03:49.443 --> 00:03:53.923 nochmal ganz gezielt der Versuch den DSA nutzbar zu machen und NutzerInnenrechte 00:03:53.923 --> 00:03:55.823 mit Mitteln des Rechts durchzusetzen. 00:03:56.420 --> 00:04:00.080 Und vielleicht nochmal, wenn man jetzt ein bisschen ein Bild hat von der GFF. 00:04:01.220 --> 00:04:06.800 Es geht ja um die Durchsetzung von Rechten. In vielen Rechtsbereichen, 00:04:06.860 --> 00:04:10.800 das begleitet mich eigentlich schon seit Jahren, ist das so ein bisschen die Achillesferse. 00:04:10.800 --> 00:04:15.480 Man hat vielleicht ein gutes Gesetz, das ist jetzt egal, ob es auf der EU-Ebene 00:04:15.480 --> 00:04:18.840 ist oder in Deutschland, aber nach so ein paar Jahren stellt sich raus, 00:04:19.180 --> 00:04:21.540 die Durchsetzung ist nicht allzu doll. 00:04:21.740 --> 00:04:25.940 Dann entdeckt man sozusagen Schwierigkeiten oder vielleicht auch Phänomene, 00:04:26.040 --> 00:04:30.360 die man vorher nicht antizipiert hat oder dass sich die Betroffenen, 00:04:30.360 --> 00:04:33.960 die bestimmte Pflichten haben durch die Gesetze, irgendwie so rausschlingen können. 00:04:33.960 --> 00:04:40.660 Was ist der Hauptfokus dieses Centers, wenn wir jetzt den DSA meinen, 00:04:40.880 --> 00:04:42.300 also den Digital Services Act? 00:04:43.100 --> 00:04:47.560 Der Hauptfokus ist die Aufsichtsarbeit, die eigentlich Aufsichtsbehörden tun 00:04:47.560 --> 00:04:50.540 müssten, also die Europäische Kommission und nationale Aufsichtsbehörden, 00:04:50.580 --> 00:04:51.600 über die können wir später noch sprechen. 00:04:51.860 --> 00:04:55.720 Das sozusagen da wirklich drauf zu schauen, was sie eigentlich machen. 00:04:55.820 --> 00:04:58.700 Machen die die Arbeit, die sie tun sollten? Halten sie große Tech-Unternehmen? 00:04:59.040 --> 00:05:02.040 Ziehen sie sie zur Verantwortung, diese neuen Regeln, die es jetzt gibt, 00:05:02.120 --> 00:05:05.540 umzusetzen und das tatsächlich richtig zu machen? Das ist eine gigantische Aufgabe, 00:05:05.740 --> 00:05:06.680 auch für Aufsichtsbehörden. 00:05:06.820 --> 00:05:10.600 Das heißt, unser Versuch ist da eigentlich, auf der einen Seite den DSA kritisch 00:05:10.600 --> 00:05:12.940 zu begleiten, weil wir auch nicht alles am DSA positiv finden, 00:05:13.100 --> 00:05:16.520 aber vor allem eben diese Aufsicht zu begleiten und da im Grunde genommen auch 00:05:16.520 --> 00:05:20.180 selber durchzusetzen und selber zu beaufsichtigen und selber dafür zu sorgen, 00:05:20.280 --> 00:05:23.200 dass die großen Unternehmen diese neuen Rechte einhalten, 00:05:23.900 --> 00:05:25.420 NutzerInnen in den Vordergrund stellen. 00:05:25.540 --> 00:05:30.100 Und das ist natürlich so ein bisschen eine Sisyphus-Aufgabe. Also das ist viel zu tun. 00:05:30.500 --> 00:05:34.480 Das ist zum einen Sisyphus, klar. Das ist einfach umfassend, aber... 00:05:36.399 --> 00:05:40.059 Da könnte jetzt ja jemand fragen, was legitimiert euch? Also warum kommt jetzt 00:05:40.059 --> 00:05:43.039 hier so ein Verein und sagt, ich gucke jetzt hier auf die Rechtsdurchsetzung. 00:05:43.179 --> 00:05:45.559 Also wie seht ihr da, warum seid ihr euch da berufen? 00:05:45.999 --> 00:05:49.139 Das Recht legitimiert uns eigentlich. Das Recht schafft bestimmte Möglichkeiten, 00:05:49.319 --> 00:05:50.859 Dinge durchzusetzen und die wollen wir nutzen. 00:05:51.219 --> 00:05:54.259 Und letztendlich ist, wie du schon gesagt hast, jedes Recht nur so gut wie die 00:05:54.259 --> 00:05:57.179 Durchsetzung und das ist zum gewissen Grad auch eine gesamtgesellschaftliche Aufgabe. 00:05:57.179 --> 00:06:00.559 Also klar, es gibt Aufsichtsbehörden, die da eine Verantwortung haben, 00:06:00.679 --> 00:06:04.539 aber wir sind natürlich auch alle eigentlich gefragt, wenn wir Rechtsverstöße 00:06:04.539 --> 00:06:08.639 sehen, dann können wir dagegen vorgehen und sollten es auch tun, denke ich. 00:06:08.639 --> 00:06:12.359 Vielleicht machen wir jetzt nochmal so prozessual einen Schritt zurück in dieser 00:06:12.359 --> 00:06:16.099 ganzen EU-Gesetzgebung. Du hast gesagt, du hast letztes Jahr verabschiedet und 00:06:16.099 --> 00:06:17.859 kurz danach in Kraft getreten. 00:06:19.539 --> 00:06:24.799 Was passiert also erstmal vielleicht zwischen diesem Verabschiedung und dem Inkrafttreten? 00:06:24.879 --> 00:06:28.179 Was ist der Grund, warum das meistens nicht gleichzeitig passiert? 00:06:28.559 --> 00:06:31.339 Das wäre glaube ich so das Erste, was wir uns einmal anschauen können und was 00:06:31.339 --> 00:06:35.319 passiert jetzt im Fall von dem DSA, aber vielleicht auch beispielhaft für andere 00:06:35.319 --> 00:06:38.399 Gesetze dann, wenn so ein Gesetz in Kraft tritt? 00:06:38.639 --> 00:06:45.599 Ja, was zuerst passiert ist sozusagen die Verkündung, das heißt das Gesetz wird 00:06:45.599 --> 00:06:49.899 im offiziellen Journal der Europäischen Kommission quasi der Gazette veröffentlicht, 00:06:49.939 --> 00:06:52.839 vergleichbar mit dem Bundesgesetz, 00:06:52.999 --> 00:06:55.799 Bundesanzeiger genau. 00:06:55.799 --> 00:07:00.339 Genau und dann gibt es einen Zeitrahmen und der wird in dem Gesetz vorgeschrieben, 00:07:00.419 --> 00:07:05.719 den sozusagen sowohl die regulierten Unternehmen als auch staatliche Stellen, Behörden etc. 00:07:05.919 --> 00:07:10.299 Nutzen können und müssen, um sich darauf vorzubereiten und sozusagen das Gesetz umzusetzen. 00:07:10.519 --> 00:07:16.919 Beim DSA war es glaube ich so, dass der letztendlich dann im Oktober, November 2022. 00:07:18.719 --> 00:07:22.699 Verabschiedet wurde, veröffentlicht wurde und dann die ersten Fristen für die 00:07:22.699 --> 00:07:26.039 allergrößten Plattformen im August 2023 gegolten haben. 00:07:26.179 --> 00:07:29.479 Das heißt auch da gab es so ein gestaffeltes Vorgehen. 00:07:29.959 --> 00:07:34.479 Der Ansatz war zu denken sozusagen, die besonders großen Plattformen tragen 00:07:34.479 --> 00:07:37.499 besonders große gesellschaftliche Verantwortung, deswegen bekommen die weniger 00:07:37.499 --> 00:07:41.279 Zeit die wichtigsten Sachen umzusetzen, alle anderen haben ein bisschen mehr Zeit. 00:07:41.739 --> 00:07:45.339 Das heißt, vollends in Kraft getreten ist der DSA dann im Februar diesen Jahres. 00:07:45.759 --> 00:07:49.639 Und was dann nochmal dazu kommt und da kommt es ein bisschen darauf an, 00:07:49.699 --> 00:07:53.619 ob wir über eine Verordnung oder eine Richtlinie sprechen, ist die nationale Umsetzung. 00:07:53.739 --> 00:07:57.899 Das heißt, Richtlinien müssen immer umgesetzt werden in nationales Recht. 00:07:58.239 --> 00:08:01.539 Das kann lange dauern. Das sind oft komplizierte, langwierige Prozesse. 00:08:01.699 --> 00:08:04.659 Zum Beispiel die Copyright-Richtlinie. Ich will gar nicht wissen, 00:08:04.739 --> 00:08:06.719 wie lange die Durchsetzung in Deutschland gedauert hat, aber es hat gedauert. 00:08:06.819 --> 00:08:12.679 Viele Monate. Viele Monate und Verordnungen gelten in der Theorie sofort. 00:08:13.279 --> 00:08:16.839 Aber tatsächlich nur in der Theorie, weil natürlich DSA, gutes Beispiel, 00:08:17.099 --> 00:08:20.379 letztendlich doch viele Strukturen geschaffen werden müssen auf nationaler Ebene, 00:08:20.439 --> 00:08:22.479 um es überhaupt umsetzbar machen zu müssen. 00:08:22.579 --> 00:08:25.779 Also ganz basic überhaupt schon mal die Frage, wer ist denn die Aufsichtsbehörde? 00:08:25.879 --> 00:08:29.239 Die muss benannt werden, dafür braucht es ein Gesetz. Und das war in Deutschland 00:08:29.239 --> 00:08:34.939 das Digitale-Dienste-Gesetz, das mit ziemlich viel Verspätung im Mai abgeschlossen 00:08:34.939 --> 00:08:36.339 wurde und in Kraft getreten ist. 00:08:36.399 --> 00:08:38.819 Oder vielleicht auch Juni in Kraft getreten, aber Mai, Juni. 00:08:39.679 --> 00:08:43.819 Und tatsächlich damit sozusagen drei Monate später dran war als der DSA. 00:08:43.979 --> 00:08:46.979 Das heißt zum Beispiel in diesen drei Monaten gab es keine Aufsichtsbehörde in Deutschland. 00:08:47.419 --> 00:08:51.879 Das heißt wir hatten keinen Counterpart, aber auch NutzerInnen oder auch Unternehmen 00:08:51.879 --> 00:08:54.859 hatten sozusagen auch niemanden, an den sie sich wenden konnten in der Zeit. 00:08:55.322 --> 00:08:58.522 Ich fasse jetzt nur nochmal kurz die Abkürzung zusammen, weil wir die bestimmt 00:08:58.522 --> 00:08:59.502 jetzt noch benutzen werden. 00:08:59.622 --> 00:09:04.022 Also DSA ist der Digital Service Act, also die Verordnung der EU und DDG, 00:09:04.082 --> 00:09:07.822 das ist das digitale Dienstegesetz, was nur für den deutschen Raum sozusagen 00:09:07.822 --> 00:09:09.962 gilt, was ein bisschen später in Kraft getreten ist. 00:09:10.022 --> 00:09:12.622 Also die werden wir vielleicht benutzen, wenn es jemand diese Abkürzung hört. 00:09:12.822 --> 00:09:16.562 Das Allerschlimmste ist, dass der DSA auf Deutsch als digitales Dienstegesetz 00:09:16.562 --> 00:09:18.702 übersetzt wurde, was natürlich überhaupt nicht hilfreich ist, 00:09:18.762 --> 00:09:20.582 weil es ja eigentlich was anderes ist. Aber deswegen, genau. 00:09:49.762 --> 00:09:51.762 Um Pflichten für bestimmte Online-Plattformen. Es geht aber auch um neue Transparenzregeln, 00:09:51.842 --> 00:09:57.162 die sozusagen für die Nutzerinnen, aber auch für alle gesellschaftlichen Gruppen sinnvoll sind. 00:09:57.302 --> 00:10:00.882 Und es geht um Moderationsentscheidungen und die Widersprüche, 00:10:00.922 --> 00:10:02.202 die man dagegen einlegen kann. 00:10:02.282 --> 00:10:06.322 Also das ist sozusagen dieser Rahmen, der vorgegeben wurde. 00:10:06.802 --> 00:10:10.062 Und vielleicht sollte man dazu wissen, der Blick war am Anfang sehr stark die 00:10:10.062 --> 00:10:15.342 Europawahl, weil die Angst davor, dass es Manipulationen geben könnte, 00:10:15.442 --> 00:10:17.782 sehr viel Falschinformationen, die war groß. 00:10:18.582 --> 00:10:22.782 Aber letztlich hätte natürlich für die Europawahl wegen des späten Inkrafttretens 00:10:22.782 --> 00:10:24.602 hier nicht Wirkung entfaltet. 00:10:24.902 --> 00:10:30.002 Und ich glaube, das ist auch eher ein dickes Brett. Wir werden lange damit zu tun haben. 00:10:30.642 --> 00:10:34.562 Deswegen würde ich ganz zu Anfang nochmal fragen wollen, wie sinnvoll... 00:10:35.176 --> 00:10:41.116 Wie sinnvoll hältst du die Regelung der Verordnung? Ist das ein gelungenes Gesetz? 00:10:42.396 --> 00:10:46.696 Klar, praktisch wissen wir noch nicht so sehr viel, aber sind die Regeln, 00:10:46.736 --> 00:10:50.136 die da erstmal theoretisch bestehen, sinnvoll und wo sind Schwächen, 00:10:50.136 --> 00:10:53.076 die du schon siehst, bevor ihr überhaupt die Arbeit richtig anfangen könnt? 00:10:54.096 --> 00:10:59.176 Also die Geschichte vom DSA fängt eigentlich vor knapp 30 Jahren an. 00:10:59.276 --> 00:11:03.796 Also die Europäische Kommission hatte mit der E-Commerce-Richtlinie quasi Ende 00:11:03.796 --> 00:11:07.316 der 90er Jahre oder vielleicht war es auch 2000 einen grundlegenden Rechtsrahmen 00:11:07.316 --> 00:11:10.656 für Online-Dienste in der Europäischen Union geschaffen. 00:11:10.656 --> 00:11:14.716 Und es war relativ, ist schon relativ lange klar gewesen, dass das mal abgedatet 00:11:14.716 --> 00:11:17.216 werden sollte und vielleicht nicht mehr so hundertprozentig zum 21. 00:11:17.356 --> 00:11:22.116 Jahrhundert und im Internet und den ganzen Diensten und Apps und Produkten, 00:11:22.176 --> 00:11:24.336 die seitdem im Internet gebaut worden sind, dass das vielleicht nicht mehr so 00:11:24.336 --> 00:11:27.516 ganz passt. Das heißt, das war das eine Bedürfnis, quasi diesen grundlegenden 00:11:27.516 --> 00:11:28.576 Rechtsrahmen abzudaten. 00:11:28.696 --> 00:11:34.016 Und dazu wurde aber auch klar, dass in den letzten Jahren in den Mitgliedstaaten 00:11:34.016 --> 00:11:36.376 es relativ viele Gesetze gab, die versucht haben, 00:11:36.496 --> 00:11:40.156 irgendwie damit umzugehen, dass diese Online-Plattformen so wahnsinnig viel 00:11:40.156 --> 00:11:43.836 Macht entfaltet haben und auch so viel Einfluss haben auf Grundrecht, 00:11:43.936 --> 00:11:44.876 wie zum Beispiel Meinungsfreiheit. 00:11:44.876 --> 00:11:48.136 Also zum Beispiel das Netz-DG, es gab ein ähnliches Gesetz in Frankreich, 00:11:48.156 --> 00:11:52.576 es gab ein ähnliches Gesetz in Österreich, in Dänemark und die waren alle, 00:11:52.656 --> 00:11:54.096 sag ich jetzt mal, nicht ideal. 00:11:54.356 --> 00:11:57.116 Da gab es natürlich wahnsinnig viel Kritik dran aus verschiedenen Perspektiven, 00:11:57.136 --> 00:11:59.476 aber es war klar, hier muss was passieren und es wäre besser, 00:11:59.616 --> 00:12:01.856 wenn es auf europäischer Ebene passiert und harmonisiert wird, 00:12:01.956 --> 00:12:05.016 als wenn die Mitgliedstaaten sich da so selber ihre Suppe kochen. 00:12:05.016 --> 00:12:08.636 Und das war eigentlich die Hauptmotivation für den DSA, dass da mal was passieren 00:12:08.636 --> 00:12:12.196 muss und dass Kraut und Rüben auf Mitgliedstaatenebene aufhören muss. 00:12:13.196 --> 00:12:18.596 Genau. Und das ist dann letztendlich im DSA gemündet, der würde ich sagen aus vier Teilen besteht. 00:12:18.776 --> 00:12:21.756 Der erste Teil sind eben diese grundlegenden Haftungsregeln, also zu Regeln. 00:12:22.383 --> 00:12:26.943 Wann ist zum Beispiel eine Plattform, auf der man als Nutzerin Inhalte posten kann? 00:12:27.023 --> 00:12:30.323 Wann ist die verantwortlich für meine Inhalte, die vielleicht illegal sind oder 00:12:30.323 --> 00:12:31.823 auch nicht? Das ist sozusagen das eine. 00:12:32.223 --> 00:12:38.483 Der zweite Teil sind grundlegende Sorgfaltspflichten, die alle erfüllen müssen. 00:12:38.683 --> 00:12:44.643 Das heißt zum Beispiel, dass Online-Plattformen oder Hosting-Anbieter Notice-and-Action-Verfahren 00:12:44.643 --> 00:12:48.803 anbieten müssen. Das heißt, dass ich als Nutzerin melden kann, 00:12:48.883 --> 00:12:52.903 Entschuldigung, hier meine Rechte wurden beschnitten und ich möchte, dass das passiert. 00:12:53.443 --> 00:12:56.283 Aber auch grundlegende Transparenzvorschriften zum Beispiel. 00:12:56.763 --> 00:13:00.323 Der dritte Teil, und das geht wir ein bisschen zu diesem gestaffelten Ansatz 00:13:00.323 --> 00:13:04.763 zurück, beschreibt nochmal besondere Pflichten für die allergrößten Plattformen, 00:13:04.763 --> 00:13:05.803 die die meiste Macht haben. 00:13:05.943 --> 00:13:09.643 Das heißt, da gibt es dann nochmal Regeln, die darauf eingehen, 00:13:09.663 --> 00:13:14.163 dass viele der großen, der sehr großen Plattformen erheblichen Einfluss auf 00:13:14.163 --> 00:13:17.723 unsere Gesellschaft haben, auf unser Zusammenleben, auf verschiedene demokratische 00:13:17.723 --> 00:13:20.823 Prozesse, aber eben auch Grundrechte, Wahlen etc. 00:13:20.823 --> 00:13:24.903 Und dass sich daraus systemische Risiken ergeben können aus dieser Macht. 00:13:25.043 --> 00:13:28.303 Das heißt, das sind nochmal besondere Regeln, um mit diesen systemischen Risiken umzugehen. 00:13:28.663 --> 00:13:32.043 Und der vierte Teil ist dann sozusagen die Durchsetzung, die Aufsicht, 00:13:32.063 --> 00:13:35.803 sozusagen das, ich sag mal, das bürokratische Kleingedruckte, 00:13:35.843 --> 00:13:38.143 das natürlich da auch drin stehen muss, was super wichtig ist, 00:13:38.203 --> 00:13:39.763 aber das sind so die vier Blöcke des DSA. 00:13:40.663 --> 00:13:45.663 Aus meiner Perspektive ist es im Großen und Ganzen gut gelungen. 00:13:45.703 --> 00:13:49.763 Ich habe ein paar Kritiken, was einige der Artikel angeht, also sozusagen auch 00:13:49.763 --> 00:13:53.663 einige der Ermächtigungen, die sich auch die Europäische Kommission gegeben 00:13:53.663 --> 00:13:55.263 hat, was die Aufsicht angeht. 00:13:55.263 --> 00:13:58.803 Insbesondere in Krisensituationen, es gibt so einen Krisenmechanismus, 00:13:58.823 --> 00:14:03.043 wo die Europäische Kommission dann recht stark eingreifen kann, wo ich denke, 00:14:03.223 --> 00:14:07.583 es ist klar, dass es sozusagen unter dem Eindruck des Kriegs in Ukraine, 00:14:07.703 --> 00:14:11.583 dieser Krisenmechanismus geschaffen wurde, auch sozusagen unter dem Eindruck 00:14:11.583 --> 00:14:13.543 der Erfahrungen in der Corona-Pandemie. 00:14:14.383 --> 00:14:18.243 Aber ich denke, da gibt es auf jeden Fall viel Missbrauchspotenzial. 00:14:19.463 --> 00:14:22.243 Andere Sache, die sehr problematisch ist, kennen wir auch schon aus dem Netz, 00:14:22.243 --> 00:14:26.663 die geht es um eine Verpflichtung von Online-Plattformen, NutzerInnen Daten 00:14:26.663 --> 00:14:29.723 und Inhalte proaktiv an Strafverfolgungsbehörden auszuleiten, 00:14:29.803 --> 00:14:32.043 wenn sie der Meinung sind, dass sie illegal sind, 00:14:32.163 --> 00:14:37.043 beziehungsweise bestimmte Straftaten, also schlimme Straftaten erfüllen könnten. 00:14:37.043 --> 00:14:39.143 Leider ist überhaupt nicht definiert, um was wir straftaten. 00:14:39.243 --> 00:14:44.683 Das sind so Elemente, wo ich sagen würde, dass der DSA missbraucht werden kann 00:14:44.683 --> 00:14:47.963 und eher auch zum Teil in so Überwachungsgesetzgebung geht. 00:14:48.703 --> 00:14:53.323 Aber der Großteil, also vor allem die Nutzerinrechte und dieser Ansatz auf systemische 00:14:53.323 --> 00:14:55.183 Risiken einzugehen, das halte ich für sehr gelungen. 00:14:55.363 --> 00:14:58.623 Aber jetzt müssen wir natürlich ausprobieren, ob es eigentlich funktioniert in der Praxis. 00:14:58.803 --> 00:15:02.383 Jetzt hast du schon so mehrfach die Kommission irgendwie immer fallen gelassen, 00:15:02.383 --> 00:15:04.163 als irgendwie anscheinend ja... 00:15:05.226 --> 00:15:09.366 Persona, die da irgendwie eine Rolle spielt in der Umsetzung von diesem Gesetz. 00:15:09.566 --> 00:15:11.966 Wir haben jetzt gerade schon mal kurz über die nationale Ebene gesprochen, 00:15:12.146 --> 00:15:13.706 können wir wahrscheinlich später nochmal mehr drüber sprechen, 00:15:13.786 --> 00:15:16.446 wie es in Deutschland jetzt eigentlich aussieht und wer da jetzt eigentlich 00:15:16.446 --> 00:15:17.566 alles daran beteiligt ist. 00:15:17.686 --> 00:15:23.506 Aber ganz grundsätzlich, welche Rolle spielt die EU-Kommission in der Umsetzung 00:15:23.506 --> 00:15:28.786 dann von einem solchen Gesetz und dann halt ja auch ganz speziell im Rahmen vom DSA? 00:15:29.446 --> 00:15:33.506 Ja, das ist eigentlich ganz spannend, weil, also vielleicht vorab, 00:15:33.626 --> 00:15:37.466 die Kommission ist die Aufsichtsbehörde für die allergrößten Plattformen, 00:15:37.466 --> 00:15:39.886 also quasi die, die wirklich unser Leben am meisten bestimmen. 00:15:40.406 --> 00:15:41.846 Das war aber gar nicht so vorgesehen. 00:15:42.626 --> 00:15:45.966 Ursprünglich war es eigentlich so vorgesehen, dass die Mitgliedstaaten, 00:15:45.966 --> 00:15:49.686 in denen diese Plattformen gemeldet sind, dass die doch bitte die Aufsicht machen können. 00:15:49.726 --> 00:15:52.226 So ein bisschen wie auch bei Datenschutz, Grundverordnung, bei DSGVO. 00:15:52.906 --> 00:15:56.486 Wie wir alle wissen, sind die meisten der Plattformen in Irland gemeldet. 00:15:56.506 --> 00:15:59.606 Und es gab dann so eine Bewegung, wo klar wurde, so Moment mal, 00:15:59.766 --> 00:16:03.106 das war vielleicht nicht die beste Idee im Kontext der DSGVO. 00:16:03.526 --> 00:16:06.186 Irland ist nicht so wahnsinnig viel tätig geworden, im Gegenteil. 00:16:06.366 --> 00:16:08.286 Das war aber die Untertreibung des Jahrzehnts. 00:16:09.066 --> 00:16:13.026 Versuche höflich zu sein. Genau, absolut. Das sollten wir schon mal benennen. 00:16:13.306 --> 00:16:18.166 Also die Ehrengelten, also absolute Nulpen in ihren Aufsichtsbehörden. 00:16:18.266 --> 00:16:20.986 Das muss man, glaube ich, Leuten, die das nicht wissen, auch so deutlich sagen. 00:16:20.986 --> 00:16:23.466 Ja, vielleicht nochmal einen weiteren Schritt zurück. 00:16:23.586 --> 00:16:28.466 Also die DSGVO ist die Datenschutzgrundverordnung, die vor, ich glaube mittlerweile 00:16:28.466 --> 00:16:33.386 sind es sieben Jahre oder sechs Jahre, sie sind jetzt auf jeden Fall am Review-Prozess. 00:16:33.526 --> 00:16:36.846 Also vor fünf, ich glaube fünf Jahre waren es letztes Jahr, in Kraft getreten 00:16:36.846 --> 00:16:39.746 sind. 2018 ist sie, meine ich, in Kraft getreten. 00:16:41.026 --> 00:16:46.726 Und die ist nämlich so wie du sagst, regelt die Aufsichtsbehörden für die Unternehmen, 00:16:46.926 --> 00:16:53.466 für die Aufsichtsbehörden des Landes, in denen die Unternehmen gemeldet sind, hätte ich fast gesagt. 00:16:53.466 --> 00:17:00.026 In ihren Sitz haben, sind dafür verantwortlich, die Datenschutzsachen zu entforcen. 00:17:00.206 --> 00:17:04.986 Und man sieht immer wieder schön an den Klagen von Neub und Max Schrems, 00:17:05.126 --> 00:17:08.346 wie das einfach überhaupt nicht funktioniert. 00:17:08.606 --> 00:17:11.666 Und anscheinend wurde daraus gelernt, ganz offensichtlich. 00:17:12.226 --> 00:17:18.566 Und die DSA-Geschichte, die DSA-Umsetzungsidee scheint ja jetzt irgendwie daran 00:17:18.566 --> 00:17:20.606 anzudocken. Genau, das ist der Versuch. 00:17:20.666 --> 00:17:24.026 Also es war klar, was bei DSGO-Papiers passiert war, war kompletter Mist. 00:17:24.126 --> 00:17:26.666 Das will man auf keinen Fall wiederholen. Es ist aber auch klar, 00:17:26.826 --> 00:17:31.646 dass wahrscheinlich die allerbeste Idee ist, wenn jetzt alle 27 damit anfangen, 00:17:31.646 --> 00:17:34.886 die größten Plattformen, die in allen diesen Märkten unterwegs sind, 00:17:34.946 --> 00:17:36.066 selber zu beaufsichtigen. 00:17:36.086 --> 00:17:38.546 Deswegen war so ein bisschen die Idee, wir geben das der Kommission. 00:17:39.626 --> 00:17:42.926 Ja, was auf jeden Fall eine spannende neue Rolle ist, mit der die Kommission 00:17:42.926 --> 00:17:43.846 glaube ich auch nicht gerechnet hat. 00:17:44.467 --> 00:17:48.347 Und vielleicht kannst du noch mal ganz kurz sagen, was die Kommission als Institution 00:17:48.347 --> 00:17:52.547 eigentlich ist und warum das vielleicht eine gute Idee ist, alle Länder nicht 00:17:52.547 --> 00:17:54.687 das alleine machen zu lassen, sondern die Kommission. 00:17:55.487 --> 00:17:59.387 Ja, das ist wirklich eine spannende Frage. Die Kommission beschreibt sich selbst 00:17:59.387 --> 00:18:01.027 als die Hüterin der Verträge, 00:18:01.107 --> 00:18:07.387 als sozusagen eine angeblich objektive Exekutive, die Gesetzesvorschläge macht 00:18:07.387 --> 00:18:11.227 und sie dann auch sozusagen beaufsichtigt immer mal wieder oder umsetzt zum Teil. 00:18:11.967 --> 00:18:14.987 Ich würde sagen, die Kommission ist eine zutiefst politische Institution, 00:18:15.227 --> 00:18:20.787 weit weg davon objektiv zu sein, sehr stark beeindruckt und beeinflusst von 00:18:20.787 --> 00:18:24.987 der Meinung der größten Mitgliedsstaaten insbesondere, nämlich Frankreich und Deutschland. 00:18:26.147 --> 00:18:30.087 Und ja, die Hoffnung war, dass die Kommission in der Lage sein wird, 00:18:30.167 --> 00:18:35.707 hier die nötige Expertise aufzubauen, Expertise auch zu bündeln und quasi durchschlagskräftiger 00:18:35.707 --> 00:18:38.587 ist als nationale Aufsichtsbehörden. 00:18:39.067 --> 00:18:42.167 Genau, und vielleicht nochmal so zur Erinnerung, in der Kommission sind aber 00:18:42.167 --> 00:18:46.907 alle 27 EU-Staaten durch eine Kommissarin oder einen Kommissar entsprechend 00:18:46.907 --> 00:18:50.387 vertreten und deswegen war es wahrscheinlich naheliegend zu sagen, 00:18:50.467 --> 00:18:54.307 okay, wenn wir das für den Gesamtmarkt EU machen wollen und wir alle darin vertreten 00:18:54.307 --> 00:18:56.907 sein wollen, dann lassen wir die Kommission das doch machen. 00:18:59.267 --> 00:19:02.727 Was man jetzt glaube ich ein bisschen bemerkt hat, wenn du darüber erzählst, 00:19:02.827 --> 00:19:06.367 ist, dass du mit einer großen Leichtigkeit diese Institutionen überblickst. 00:19:07.017 --> 00:19:10.297 Und wir haben eingangs sozusagen von deinem Video noch nicht so sehr viel erzählt. 00:19:10.617 --> 00:19:16.097 Also es gibt ja einen Grund, warum du gerade diese EU-Prozesse so gut überblickst. 00:19:16.137 --> 00:19:20.217 Erzähl mal ein bisschen, wie du oder was du mit der EU-Kommission zu tun hast 00:19:20.217 --> 00:19:24.437 und wie du sozusagen am Ende in diesem Themenfeld ineinander bist. 00:19:24.537 --> 00:19:28.257 Also leg mal ein bisschen offen, woher dein tiefes Wissen darüber kommt. 00:19:28.257 --> 00:19:29.897 Ja, ich habe da mal gearbeitet. 00:19:30.037 --> 00:19:33.057 Also ich habe bei Didi Connect gearbeitet. Das ist quasi der Teil der Kommission, 00:19:33.097 --> 00:19:36.337 der für Digitalpolitik verantwortlich ist. Der macht jetzt auch die Aufsicht für den DSA. 00:19:36.857 --> 00:19:41.517 Und ich habe da in einem Team gearbeitet, das die Gesetzgebungsprozesse managt. 00:19:41.677 --> 00:19:43.777 Das heißt, ich war dafür verantwortlich, sozusagen dafür zu sorgen, 00:19:43.837 --> 00:19:48.357 dass Gesetzgebungsprozesse gut laufen, flüssig laufen und Dinge durch diesen 00:19:48.357 --> 00:19:50.317 Prozess, diesen co-legislativen Prozess durchgehen. 00:19:51.737 --> 00:19:54.737 Was natürlich ein sehr politischer Job quasi ist, dafür zu sorgen, 00:19:54.817 --> 00:19:59.457 dass das Ziel der Kommission, die natürlich offiziell gar kein Ziel hat in diesen Verhandlungen, 00:19:59.597 --> 00:20:03.557 es ist ja offiziell sind ja Parlament und Rat die Co-Gesetzgeber, 00:20:03.617 --> 00:20:07.797 aber die Kommission ist ja im Triolog im Gespräch zu dritt dann ja doch am Tisch 00:20:07.797 --> 00:20:08.737 und hat da sehr viele Meinungen. 00:20:08.737 --> 00:20:12.857 Das heißt, die Kommission hat bestimmte Ziele, die sie verfolgt mit ihren Gesetzesvorhaben 00:20:12.857 --> 00:20:17.117 und die sollten möglichst gut natürlich durch diesen Gesetzesprozess durchkommen, 00:20:17.237 --> 00:20:19.897 aber natürlich gibt es auch noch die Rolle, dass die Kommission den anderen 00:20:19.897 --> 00:20:23.397 beiden Institutionen unterstützt, Expertise zur Verfügung steht. 00:20:24.717 --> 00:20:26.617 Beziehungsweise… Koordiniert, kann man sagen, also auch logistisch. 00:20:26.657 --> 00:20:28.317 Koordiniert, genau. Zum Teil auch das, ja. 00:20:29.177 --> 00:20:33.657 Genau, das habe ich knapp eineinhalb Jahre gemacht und habe dann Brüssel verlassen, 00:20:33.657 --> 00:20:40.497 um mal zu studieren und bin danach über ein Fellowship-Programm, 00:20:40.497 --> 00:20:43.297 hatte ich die Möglichkeit, kurz im deutschen Arbeitsministerium zu arbeiten, 00:20:43.417 --> 00:20:45.797 aber dann vor allem bei der Electronic Frontier Foundation, 00:20:46.097 --> 00:20:49.797 also einer amerikanischen NGO, die sich sehr viel im Bereich, ähm, der 00:20:49.814 --> 00:20:52.634 Digitale Rechte einsetzt, die eine sehr andere Perspektive vertritt, 00:20:52.694 --> 00:20:57.114 eine sehr tech-kritische Perspektive. Und dann war das Fellowship vorbei. 00:20:57.794 --> 00:21:00.794 Ich hatte keinen Job und es war Corona und ich brauchte einen Job. 00:21:00.974 --> 00:21:04.274 Und dann hat sich die Möglichkeit ergeben, zu Google zu gehen, 00:21:04.314 --> 00:21:09.034 ins Public Policy Team in Deutschland. stand, wo ich durchaus gezögert habe, 00:21:09.154 --> 00:21:13.874 aber sehr neugierig war auf die Perspektive von innen, innerhalb einer Plattform. 00:21:13.894 --> 00:21:17.174 Ich wollte quasi wissen, wie da eigentlich tatsächlich mit Content Moderation, 00:21:17.314 --> 00:21:19.654 Inhalt der Moderation, was so mein Thema war, was ich in den letzten Jahren 00:21:19.654 --> 00:21:22.454 davor herausgearbeitet hatte, wie damit umgegangen wird. 00:21:23.594 --> 00:21:26.414 Genau und da war ich dann ungefähr drei Jahre und habe sehr, 00:21:26.474 --> 00:21:30.994 sehr viel auch am DSA und an ähnlichen Themen gearbeitet und wollte dann zurück 00:21:30.994 --> 00:21:34.594 in die Zivilgesellschaft und bin dann so bei der Gesellschaft für Freiheitsrechte gelandet. 00:21:34.594 --> 00:21:39.674 Das ist ja ein bisschen selten, glaube ich, dass jemand quasi diese drei Perspektiven hat. 00:21:39.854 --> 00:21:42.614 Die EU-Kommission selbst und zwar auch von innen. 00:21:42.954 --> 00:21:48.834 Dann ein klassisches, auch sehr stark im Lobbying tätiges Unternehmen, auch von innen. 00:21:49.114 --> 00:21:52.354 Und dann die Zivilgesellschaft gleich noch von zwei Perspektiven. 00:21:52.454 --> 00:21:55.394 Das ist natürlich eine Expertise, die schon ziemlich selten ist. 00:21:55.394 --> 00:21:57.274 Ich glaube, da kommen wir nachher nochmal ein bisschen zurück, 00:21:57.314 --> 00:22:00.934 wenn man über diese Durchsetzung und wie die Zusammenarbeit bei uns eigentlich funktionieren soll. 00:22:01.454 --> 00:22:05.394 Aber das ist natürlich eine interessante Perspektive. Aber ich muss noch eine andere Frage stellen. 00:22:06.074 --> 00:22:10.334 Ja, das ist jetzt mehrfach erwähnt worden. Es gibt also diese Trennung zwischen 00:22:10.334 --> 00:22:15.414 sehr, sehr großen Online-Plattformen und die, die mit den Ländern zu tun haben 00:22:15.414 --> 00:22:18.314 oder vielleicht ansässig sind mit den Ländern oder zumindest ein Sitz haben mit den Ländern. 00:22:19.814 --> 00:22:23.954 Ich glaube, darüber gibt es in der Öffentlichkeit sehr wenig Wissen. Welche sind das? 00:22:24.794 --> 00:22:28.294 Wie viele sind das eigentlich? Und wie sind sie definiert? 00:22:28.334 --> 00:22:33.734 Das heißt, wie rutscht jemand in diese sehr kleine Gruppe von very large Online-Plattformen, 00:22:33.734 --> 00:22:37.294 also sehr große, und wie fällt man wieder raus und wie unterscheiden sich die 00:22:37.294 --> 00:22:40.534 Pflichten? Ich glaube, das müssen wir einfach mal sagen. Es geht ja nicht nur um die Aufsicht. 00:22:41.370 --> 00:22:44.390 Die die EU-Kommission dann eben zusammen mit anderen machen will, 00:22:44.430 --> 00:22:46.990 sondern es geht ja auch darum, wer rutscht da eigentlich rein, wer ist in der Tat. 00:22:47.370 --> 00:22:51.390 Ja, also sehr große Online-Plattformen oder sehr große Suchmaschinen, 00:22:51.530 --> 00:22:56.430 die gehören nämlich auch dazu, sind Online-Plattformen, die mehr als 45 Millionen 00:22:56.430 --> 00:22:58.310 Nutzer in der Europäischen Union haben. 00:22:58.390 --> 00:23:02.110 Also das ist schon eine große Schwelle, die überschreitet man nicht so zufällig. 00:23:02.370 --> 00:23:05.790 Das sind inzwischen, glaube ich, knapp über 20. 00:23:05.970 --> 00:23:09.410 Also ich kann mal kurz durchgehen, es sind, weil sozusagen auch bei manchen 00:23:09.410 --> 00:23:12.190 Unternehmen verschiedene Produkte drunter fallen. Also zum Beispiel bei Google 00:23:12.190 --> 00:23:15.310 fallen YouTube, aber auch der Playstore, aber auch Google Maps, 00:23:15.490 --> 00:23:16.450 Google Shopping drunter. 00:23:16.530 --> 00:23:18.710 Das zählt dann quasi als verschiedene. 00:23:18.970 --> 00:23:22.490 Ich glaube es sind 13, wenn man die Konzerne zählt. Das kann sein. 00:23:22.650 --> 00:23:26.290 Dann zum Beispiel die Meta-Plattformen, also Instagram und Facebook, 00:23:26.650 --> 00:23:32.470 es ist Twitter, es ist TikTok, es ist aber auch zum Beispiel Online-Marktplätze, 00:23:32.490 --> 00:23:35.470 über die reden wir selten, aber Online-Marktplätze sind auch reguliert vom DSA, 00:23:35.650 --> 00:23:41.150 also Amazon, Alibaba, Sheen und Temo wurden auch gerade benannt. 00:23:42.110 --> 00:23:46.730 Recht neu sind auch die großen Porno-Plattformen darunter, also X-Hamster und andere. 00:23:48.370 --> 00:23:51.590 Da kommen wir schon auf mehr, auf 13, wenn die Pornoplattformen dabei sind. 00:23:51.770 --> 00:23:54.150 Genau, dann noch die Suchmaschinen, also die Google-Suche und Bing. 00:23:55.370 --> 00:23:58.510 LinkedIn fällt auch drunter, was auch zu Microsoft gehört. 00:23:59.350 --> 00:24:02.470 Genau, also sind dann doch recht verschieden. Aber was ist mit diesem komischen 00:24:02.470 --> 00:24:09.390 Unternehmen OpenAI Chat GPT, die sich ja mit 90 Millionen Usern brüsten? 00:24:09.630 --> 00:24:11.790 Haben die die schon in der EU? Sind die schon dabei? 00:24:12.990 --> 00:24:16.150 Ja, das ist tatsächlich eine ganz spannende Frage, weil nicht ganz klar ist, 00:24:16.170 --> 00:24:19.530 was die eigentlich für eine Form von Dienst sind. 00:24:19.790 --> 00:24:22.050 Ist es ein Hosting-Anbieter? Ist es eine Online-Plattform? 00:24:23.650 --> 00:24:26.470 Ist es eine Suchmaschine? Da ist es wahrscheinlich persönlich beleidigt, 00:24:26.470 --> 00:24:27.490 wenn man das behaupten würde. 00:24:28.210 --> 00:24:31.210 Genau, das ist tatsächlich nicht so ganz klar. Und zum Beispiel auch innerhalb von Suchmaschinen. 00:24:31.290 --> 00:24:33.570 Also Suchmaschinen bestehen ja auch aus verschiedenen Produkten. 00:24:33.610 --> 00:24:37.230 Es gibt so die zehn blauen Links, so die Klassiker, aber dann auch die vertikalen Integrationen. 00:24:37.330 --> 00:24:41.630 Und da ist auch zum Teil nicht ganz klar, welche Regeln für die verschiedenen Teile gelten. 00:24:41.690 --> 00:24:44.050 Also da wird es, glaube ich, auch noch Rechtsprechung brauchen, 00:24:44.050 --> 00:24:47.250 bis es so völlig klar ist. Aber das sind so die Unternehmen, die darunter fallen. 00:24:47.510 --> 00:24:51.430 Okay, und jetzt wissen wir sozusagen auch für diejenigen, die jetzt selber mal Nutzer sind. 00:24:52.308 --> 00:24:55.568 Welche sind das? Und dann müssen wir vielleicht noch darüber reden, 00:24:55.688 --> 00:24:57.208 wir hatten jetzt die EU-Kommission. 00:24:57.448 --> 00:25:01.988 Wir sind ja noch nicht fertig mit der EU-Kommission. Das wäre jetzt mein Punkt, um wieder einzuhaken. 00:25:02.288 --> 00:25:05.728 Also das ist sozusagen wahrscheinlich so die Idee, wie es dazu gekommen ist, 00:25:05.808 --> 00:25:06.908 dass die EU-Kommission das übernimmt. 00:25:07.008 --> 00:25:12.628 Aber was muss die EU-Kommission jetzt eigentlich leisten und macht sie auch 00:25:12.628 --> 00:25:15.468 was oder redet sie nur viel darüber gerade? 00:25:15.468 --> 00:25:19.008 Ja, also die EU-Kommission hatte die Verpflichtung oder die Aufgabe, 00:25:19.188 --> 00:25:24.108 die zu beaufsichtigen, dass diese großen Unternehmen, wo wir schon gemerkt haben, 00:25:24.148 --> 00:25:27.948 es sind doch mehr vielleicht als man denkt, dass die den DSA richtig durchsetzen. 00:25:28.308 --> 00:25:32.788 Dafür hat es eine ganze Reihe von Möglichkeiten und so Werkzeugen, 00:25:32.788 --> 00:25:33.548 die zur Verfügung stehen. 00:25:33.668 --> 00:25:37.168 Zum Beispiel müssen die Unternehmen bestimmte Berichte abliefern, 00:25:37.328 --> 00:25:40.948 wie sie zum Beispiel mit systemischen Risiken umgegangen sind, wie sie die bekämpfen. 00:25:41.268 --> 00:25:43.688 Das heißt, die Kommission hat schon mal eine bessere Informationslage. 00:25:44.268 --> 00:25:47.728 Theoretisch. Theoretisch. Ich glaube auch Praxis praktisch. Sie können darüber 00:25:47.728 --> 00:25:51.408 hinaus auch nochmal Informationen anfragen, aber es geht sogar so weit, 00:25:51.428 --> 00:25:56.828 dass sie Durchsuchungen durchführen könnten oder sozusagen nochmal spezifische 00:25:56.828 --> 00:25:59.408 Informationen anfragen können, sicherstellen können. 00:25:59.508 --> 00:26:03.448 Das heißt, sie haben relativ große Investigation-Powers, sage ich jetzt mal. 00:26:03.908 --> 00:26:07.448 Und die Kommission ist auch sehr schnell sehr aktiv geworden. 00:26:07.448 --> 00:26:11.328 Man könnte vielleicht auch sagen, aktivistisch unterwegs gewesen in den ersten 00:26:11.328 --> 00:26:12.848 Monaten, also es ging sehr schnell los. 00:26:13.888 --> 00:26:17.808 Nicht alles davon wurde auch sehr positiv gesehen, zum Beispiel im Kontext des 7. Oktober. 00:26:18.820 --> 00:26:22.940 Gab es dann Briefe des zuständigen Kommissars Thierry Breton, 00:26:23.080 --> 00:26:26.900 einem Franzosen, die er dann über Twitter verteilt hat, sozusagen so kommuniziert 00:26:26.900 --> 00:26:29.980 hat, an die großen Plattformen, sozusagen mit der Aufforderung, 00:26:29.980 --> 00:26:34.740 hier den DSA durchzusetzen und hat da aber auf eine relativ, 00:26:34.920 --> 00:26:37.780 wie ich finde, problematische Art und Weise vermischt, um was es eigentlich geht. 00:26:37.780 --> 00:26:41.260 Geht es um illegale Inhalte, geht es um Desinformation, was genau sind eigentlich die Pflichten? 00:26:41.300 --> 00:26:44.900 Also das war zum Beispiel ein Beispiel recht früh, wo man das Gefühl hatte, 00:26:44.960 --> 00:26:47.120 dass hier auch politisch Einfluss genommen wird. 00:26:48.000 --> 00:26:52.940 Abgesehen davon hat die Kommission vielleicht noch drei große Prioritäten festgelegt jetzt erstmal. 00:26:53.260 --> 00:26:56.780 Also einmal das Thema illegale Inhalte, wie gehen die Plattformen mit illegalen 00:26:56.780 --> 00:27:00.880 Inhalten um, also was sind die Meldewege, wie gut funktionieren die Transparenz etc. 00:27:01.780 --> 00:27:05.900 Der zweite Bereich ist Kinder- und Jugendschutz, das ist ein weiteres Thema, 00:27:05.940 --> 00:27:09.260 das die Kommission sehr wichtig ist. und der dritte natürlich dieses Jahr Wahlen 00:27:09.260 --> 00:27:13.800 und sozusagen alles, was mit Integrität von Wahlen zu tun hat, Desinformation etc. 00:27:15.120 --> 00:27:18.280 Du hast ja vorhin gesagt, Thierry Breton ist eigentlich dafür zuständig, 00:27:18.360 --> 00:27:19.440 aber wie kann man sich das denn vorstellen? 00:27:19.720 --> 00:27:22.420 Also eigentlich würde man ja denken, die Kommission, hast du ja eben auch erzählt, 00:27:22.480 --> 00:27:25.380 hat eigentlich andere Dinge zu tun, als sich jetzt um Forst mit Aufgaben zu befassen. 00:27:25.520 --> 00:27:30.660 Die stellen ja dann wahrscheinlich ein neues Team oder eine neue Abteilung oder 00:27:30.660 --> 00:27:33.980 so zusammen, die dann auch wahrscheinlich unpolitisch beständig ist, 00:27:33.980 --> 00:27:37.880 ist im Gegensatz zu den Kommissarinnen, die ja jetzt auch nach den Wahlen wechseln werden, oder? 00:27:38.260 --> 00:27:42.240 Genau. Also innerhalb von DigiConnect wurde eine Abteilung eigentlich umstrukturiert und umgebaut. 00:27:42.380 --> 00:27:45.960 Das ist die Abteilung, in der auch das Team sitzt, das in DSA geschrieben und 00:27:45.960 --> 00:27:49.440 verhandelt hat. Da ist sehr, sehr viel Expertise da, generell im Bereich Online-Plattformen. 00:27:49.680 --> 00:27:54.520 Und die haben jetzt schon recht viele Leute eingestellt. Ich glaube, es sind inzwischen... 00:27:55.568 --> 00:27:58.608 Ja, vielleicht zwischen 70 und 100 Leute, die da im DSA-Konzern zusammenarbeiten, 00:27:59.148 --> 00:28:01.228 sind auch gerade noch Stellen offen. 00:28:01.328 --> 00:28:04.368 Also die Kommission hat auch recht lange gebraucht, um diese Stellen zu füllen 00:28:04.368 --> 00:28:07.608 und tatsächlich auch sozusagen das Team aufzubauen. Das war nicht so leicht für sie. 00:28:08.528 --> 00:28:12.148 Aber genau, das sind jetzt quasi verschiedene Teams mit verschiedenen Schwerpunkten, 00:28:12.148 --> 00:28:16.668 die aber zusammenarbeiten und soweit ich das verstehe, auf der einen Seite sozusagen 00:28:16.668 --> 00:28:19.528 fokussiert sind auf bestimmte Aspekte des DSA, 00:28:19.748 --> 00:28:23.528 zum Beispiel Transparenz oder systemische Risiken, auf der anderen Seite aber 00:28:23.528 --> 00:28:27.188 auch an bestimmten Untersuchungen arbeiten. 00:28:27.188 --> 00:28:32.448 Also, weil das gehört auch dazu, die Kommission hat schon einige Untersuchungen jetzt losgetreten. 00:28:32.488 --> 00:28:37.628 Also es gibt zum Beispiel Untersuchungen in Meta, Twitter beziehungsweise X 00:28:37.628 --> 00:28:39.888 hat die Kommission auch eine Untersuchung gestartet. 00:28:41.168 --> 00:28:45.088 Ich glaube auch, ich muss mal gucken, aber es ist inzwischen eine ganze Reihe, 00:28:45.108 --> 00:28:49.108 ich glaube über zehn Untersuchungen, die inzwischen quasi schon losgetreten 00:28:49.108 --> 00:28:53.688 worden sind. Zum Teil sind es dann auch nur Nachfragen, wo mehr Informationen gewollt wird. 00:28:53.768 --> 00:28:58.048 Zum Beispiel als wir im Februar eine Beschwerde gegenüber LinkedIn eingereicht 00:28:58.048 --> 00:29:00.908 haben, hat die Europäische Kommission dann als ersten Schritt erstmal LinkedIn 00:29:00.908 --> 00:29:01.828 nach mehr Informationen gefragt. 00:29:01.968 --> 00:29:05.288 Das ist aber sozusagen auch eine Enforcement-Action, die von diesem Team kam. 00:29:05.288 --> 00:29:07.668 Und die könnten ja auch nichts tun. Genau, sie können auch nicht so. 00:29:36.648 --> 00:29:38.688 Der Europäischen Kommission. Theoretisch müssten, 00:29:39.391 --> 00:29:43.491 Wir uns alle an unsere nationalen Aufsichtsbehörde nennen, der Digital Services 00:29:43.491 --> 00:29:46.251 Coordinator, beziehungsweise auf Deutsch die Koordinierungsstelle. 00:29:47.191 --> 00:29:51.931 Und da kann man dann quasi Beschwerden einreichen, wozu man möchte. 00:29:52.491 --> 00:29:56.311 Und wenn es sich dabei um sehr große Online-Plattformen handelt, 00:29:56.371 --> 00:29:58.971 dann hat quasi diese nationale Aufsichtsbehörde die Verpflichtung, 00:29:59.031 --> 00:30:00.171 das an die Kommission weiterzugeben. 00:30:00.291 --> 00:30:02.811 Da es ja in Deutschland bis vor kurzem noch keine Behörde gab, 00:30:02.911 --> 00:30:05.571 haben wir dann eben zum Beispiel das direkt bei der Kommission eingereicht, 00:30:05.651 --> 00:30:09.071 auch wenn es keinen offiziellen Weg dafür gab. Was in dem Fall gut funktioniert 00:30:09.071 --> 00:30:13.811 hat, aber natürlich auch mit dem Problem einhergeht, dass wir keinerlei prozessuale Rechte hatten. 00:30:13.991 --> 00:30:16.231 Also die Kommission, genau wie gesagt, die hätten nichts machen müssen, 00:30:16.331 --> 00:30:19.091 die hätten sich einfach nie wieder über uns melden können und wir hätten keine 00:30:19.091 --> 00:30:21.051 rechtlichen Wege gehabt, dagegen vorzugehen. 00:30:21.591 --> 00:30:26.131 Ist das denn jetzt anders? Es gibt jetzt sozusagen diesen Coordinator, 00:30:26.471 --> 00:30:29.371 das ist in Deutschland die Bundesnetzagentur, das ist auch gesetzlich geregelt. Genau. 00:30:29.991 --> 00:30:33.831 Müsst ihr euch mit denen dann jetzt ins Benehmen setzen oder wendet ihr euch 00:30:33.831 --> 00:30:36.751 dann direkt in die Bundesnetzagentur? Wie wird es jetzt laufen? 00:30:37.351 --> 00:30:39.951 Ja, also wir haben vor zwei Wochen eine weitere Beschwerde eingereicht, 00:30:39.971 --> 00:30:42.271 wo wir es mal ausprobieren wollten, wie denn jetzt der Weg eigentlich ist. 00:30:42.411 --> 00:30:47.151 Und da haben wir festgestellt, dass es jetzt ein Formular gibt auf der Webseite 00:30:47.151 --> 00:30:49.551 der BNetz A, wo man Dinge einreichen kann. 00:30:50.151 --> 00:30:54.571 Wir hatten recht umfangreiche Nachweise bzw. Beweise, die wir dann in verschiedenen 00:30:54.571 --> 00:30:57.411 ZIP-Files dort hochladen wollten, dann aber leider feststellen mussten, 00:30:57.451 --> 00:30:58.831 dass man keine ZIP-Files hochladen kann. 00:30:58.891 --> 00:31:03.471 Man kann nur fünf Bilddateien hochladen und hat eine sehr begrenzte Zeichenzahl. 00:31:03.471 --> 00:31:07.091 Ja genau, das heißt da kommt schon ein bisschen durch, was sie sich vorstellen 00:31:07.091 --> 00:31:11.051 an Beschwerden, wovon sie ausgehen, was sie bekommen und ich glaube die rechnen 00:31:11.051 --> 00:31:14.171 vor allem damit sozusagen von einzelnen Personen zu hören, was ihnen auf einer 00:31:14.171 --> 00:31:17.371 Plattform widerfahren ist, wo sie ihre Rechte nicht eingehalten wurden. 00:31:17.371 --> 00:31:19.911 Aber ich glaube sozusagen, dass wir dort einreichen wollten, 00:31:20.051 --> 00:31:23.011 nämlich Beschwerden gegen fünf verschiedene Unternehmen, das war jetzt nicht so vorgesehen. 00:31:23.091 --> 00:31:27.491 Das heißt, in dem Fall haben wir dann auch wieder sozusagen dann per E-Mail 00:31:27.491 --> 00:31:31.951 bei der BNSA die Beschwerde eingereicht, aber auch parallel an die Europäische 00:31:31.951 --> 00:31:35.911 Kommission, weil es eben um sehr große Online-Plattformen ging und das natürlich klar ist, 00:31:36.011 --> 00:31:38.691 dass letztendlich sowieso bei der Kommission landet. 00:31:38.691 --> 00:31:41.031 Vielleicht können wir ja nochmal in Deutschland bleiben. 00:31:41.231 --> 00:31:45.311 Wir haben jetzt schon von dem Koordinator oder Koordinierungsstelle gehört, das ist die BNSA. 00:31:45.551 --> 00:31:49.231 Aber wie ist das denn jetzt eigentlich in der Umsetzung in Deutschland vorgesehen? 00:31:49.291 --> 00:31:54.251 Wer ist da eigentlich beteiligt oder nicht beteiligt? Und was sind da auch dann 00:31:54.251 --> 00:31:59.051 Nutzerinnenrechte, die wir irgendwie einklagen können auf unterschiedlichen Ebenen? 00:32:00.123 --> 00:32:04.203 Ja, also vielleicht erstmal ganz kurz, wen beaufsichtigt die deutsche Aufsicht? 00:32:05.003 --> 00:32:07.803 Ziemlich viele Unternehmen, also sozusagen Plattformunternehmen, 00:32:08.003 --> 00:32:10.623 E-Commerce-Unternehmen, die in Deutschland gemeldet sind, das sind ziemlich viele. 00:32:10.943 --> 00:32:13.483 Kannst du mal ein paar Beispiele nennen, weil das ist glaube ich vielleicht 00:32:13.483 --> 00:32:18.383 nicht so bekannt. Das größte zum Beispiel Amazon, Zalando. 00:32:18.463 --> 00:32:21.083 Zalando ist ein sehr großes Online-Plattform. 00:32:21.463 --> 00:32:25.503 Ein deutsches Unternehmen sitzt in Deutschland. Die deutsche Aufsicht ist dafür verantwortlich. 00:32:25.803 --> 00:32:32.123 Aber auch so Sachen wie nebenan.de oder eBag Kleinanzeigen. 00:32:32.683 --> 00:32:33.863 Soundcloud glaube ich auch. 00:32:35.063 --> 00:32:39.723 Also es gibt eine Liste, die als PDF da schon verfügbar ist, 00:32:39.763 --> 00:32:41.983 die hat aber glaube ich nur elf oder zwölf Einträge. 00:32:42.103 --> 00:32:46.103 Ich denke, die ist erstmal nur vorläufig und wird ganz sicherlich erweitert 00:32:46.103 --> 00:32:48.123 werden. Ja, es müssten mehrere tausend Unternehmen sein. 00:32:48.443 --> 00:32:52.363 Die ist aber super klein. Also ich habe eben geguckt, also wir sind jetzt Ende 00:32:52.363 --> 00:32:55.703 Juni, da ist offenbar noch alles im Aufbau. 00:32:56.283 --> 00:33:00.303 Ja, also natürlich auch viele ganz kleine Blogs fallen natürlich theoretisch auch drunter. 00:33:00.343 --> 00:33:04.583 Es sind Hosting-Anbieter, die hosten vielleicht Kommentare von ihren NutzerInnen 00:33:04.583 --> 00:33:06.623 oder Community-Mitgliedern, die fallen theoretisch auch drunter. 00:33:06.683 --> 00:33:09.043 Also es ist wirklich eine sehr, sehr diverse Palette auch. 00:33:10.203 --> 00:33:15.063 Genau, also das wird beaufsichtigt. Und wer das tut, ist auch kompliziert. 00:33:15.163 --> 00:33:17.963 Also die BNSA koordiniert das, Digital Services Coordinator, 00:33:18.443 --> 00:33:22.223 weil auch so viele verschiedene Bereiche involviert sind, dass verschiedene 00:33:22.223 --> 00:33:27.063 Behörden involviert sind. Das sind zum Beispiel die Bundesbeauftragte für Datenschutz 00:33:27.063 --> 00:33:28.783 in der Informationsgesellschaft, BFDI. 00:33:30.403 --> 00:33:34.303 Informationsfreiheit. Informationsfreiheit, genau. BFDI ist beteiligt für die 00:33:34.303 --> 00:33:36.763 Artikel im DSA, wo es konkret um Datenschutz geht. 00:33:37.103 --> 00:33:42.143 Dann gibt es aber auch Artikel, die sich konkret um Kinder- und Jugendmedienschutz drehen. 00:33:42.143 --> 00:33:45.223 Das heißt, dass dann sowohl die BZKJ, also die Bundeszentrale für Kinder- und 00:33:45.223 --> 00:33:49.783 Jugendmedienschutz, als auch die Landesmedienanstalten, die sich das Thema Aufsicht 00:33:49.783 --> 00:33:52.563 im Bereich Kinder- und Jugendmedienschutz mit der BZKJ teilen, 00:33:52.563 --> 00:33:54.743 Ein klassisches föderales Thema. 00:33:55.415 --> 00:33:59.935 Die sind auch beteiligt. Dann, weil wir ja gerade schon gesagt haben, 00:34:00.035 --> 00:34:01.915 auch Marktplätze sind beteiligt. 00:34:01.955 --> 00:34:06.935 Auf Marktplätzen werden potenziell Dinge gehandelt, Produkte gehandelt, die illegal sind. 00:34:06.995 --> 00:34:11.695 Das heißt auch Produktsicherheitsbehörden, Verbraucherschutz sozusagen auch drin beteiligt. 00:34:12.795 --> 00:34:16.375 Ich vergesse bestimmt gerade irgendjemanden, aber das sind so die großen Kategorien. 00:34:16.395 --> 00:34:20.275 Das heißt, es sind sehr, sehr viele Behörden daran beteiligt und die BNZ A hat 00:34:20.275 --> 00:34:25.555 vor allem die Aufgabe, das zu koordinieren und dann quasi auch Beschwerden oder 00:34:25.555 --> 00:34:30.135 auch Untersuchungen an die Behörde weiterzugeben, die am ehesten dafür zuständig 00:34:30.135 --> 00:34:31.195 ist und dafür kompetent ist. 00:34:31.775 --> 00:34:34.055 Man sieht ja schon, es ist im Aufbau. 00:34:35.215 --> 00:34:37.815 Du hast jetzt so Zahlen genannt, es werden wahrscheinlich tausend Unternehmen 00:34:37.815 --> 00:34:42.155 sein, aber ob es da eine Gesamtliste der Ansprechpartner geben wird, weiß man nicht. 00:34:42.435 --> 00:34:45.835 Aber betonen tut ja die Beschwerdestelle sofort, wenn man da hinklickt, 00:34:45.935 --> 00:34:49.415 dass es eigentlich nicht um so individuelle Dinge geht, 00:34:49.655 --> 00:34:52.555 also dass die Nutzer nicht hinkommen sollen und sagen, mein Account wurde gesperrt, 00:34:52.615 --> 00:34:58.975 sondern dass sie auf systematische oder regelmäßige Verstöße hingewiesen werden 00:34:58.975 --> 00:35:01.675 wollen mit ihrem Beschwerdeformular. Ähm... 00:35:05.941 --> 00:35:09.621 Also Khaleesi hat eben so ein bisschen nach den Rechten der Nutzer eigentlich 00:35:09.621 --> 00:35:15.461 gefragt und da müsste ich ja eher an Vereine denken, 00:35:15.601 --> 00:35:20.861 die sowas machen können, um regelverstöße oder systematische Regelverstöße aufzudenken 00:35:20.861 --> 00:35:23.661 und nicht an den Einzelnen, der sich vielleicht mal falsch behandelt fühlt oder 00:35:23.661 --> 00:35:24.761 keine Meldestelle findet. 00:35:24.981 --> 00:35:28.741 Also das ist ja eigentlich so ein Konstrukt, der nicht sehr freundlich für die 00:35:28.741 --> 00:35:31.801 Nutzer ist, oder? Ja, deswegen ist uns unsere Arbeit eben auch so wichtig, 00:35:31.821 --> 00:35:33.401 dass wir sie überreichen. Also das ist genau das Problem. 00:35:34.361 --> 00:35:38.961 Der DSA sagt auch sehr deutlich, dass einzelne Rechtsverstöße nicht das Problem sind. 00:35:39.501 --> 00:35:41.661 Systematische Rechtsverstöße können geahndet werden. Das heißt, 00:35:41.721 --> 00:35:44.241 wenn sozusagen Facebook einmal was falsch entscheidet, ist es schon okay. 00:35:44.441 --> 00:35:46.641 Damit muss man rechnen bei skalierter Inhaltemoderation. 00:35:46.921 --> 00:35:50.261 Es geht sozusagen darum, laufen Dinge systematisch falsch und das ist natürlich 00:35:50.261 --> 00:35:53.421 für einzelne NutzerInnen total unbefriedigend, weil die tatsächlich nicht unbedingt 00:35:53.421 --> 00:35:56.641 jemand haben, an den sie sich wenden können oder es mit sehr viel Aufwand verbunden 00:35:56.641 --> 00:36:01.221 ist. Es gibt natürlich Vereine, NGOs, wie zum Beispiel die GFF, aber auch HateAid. 00:36:01.241 --> 00:36:05.921 Es gibt auch andere Beratungsstellen für insbesondere Betroffene von Hass im 00:36:05.921 --> 00:36:07.801 Netz und von digitaler Gewalt, die da helfen können. 00:36:07.901 --> 00:36:10.841 Aber es ist nicht super offensichtlich, an wie man sich wenden kann. 00:36:11.261 --> 00:36:15.081 Es gibt noch Verbraucherschutzzentrale, die sind auch hilfreich, 00:36:15.181 --> 00:36:17.621 aber muss man natürlich auch erstmal kennen. Also ich würde auch sagen, 00:36:17.661 --> 00:36:18.461 dass die Hürden recht hoch sind. 00:36:19.361 --> 00:36:25.721 Es gibt eine, so eine Innovation im DSA ist, dass man sich als Nutzerin auch 00:36:25.721 --> 00:36:29.921 vertreten lassen kann von zum Beispiel Vereinen wie der GVF. 00:36:30.001 --> 00:36:32.781 Das heißt sozusagen, dein Inhalt wurde entfernt, du willst dagegen vorgehen, 00:36:32.921 --> 00:36:36.301 hast aber vielleicht gerade nicht die mentale Bandbreite, dich auch noch darum zu kümmern. 00:36:36.661 --> 00:36:39.561 Gerade von Menschen, die systematisch betroffen sind, von zum Beispiel Hass 00:36:39.561 --> 00:36:40.441 im Netz, ein riesiges Problem. 00:36:40.561 --> 00:36:43.641 Das heißt, man kann sich in die Situation vertreten lassen von jemand anderem, 00:36:43.681 --> 00:36:46.341 der dann diese Rechte für dich einfordert. 00:36:46.861 --> 00:36:48.761 Aber es ist natürlich auch etwas, was man erstmal wissen muss. 00:36:48.861 --> 00:36:52.221 Und ich denke, das ist tatsächlich ein riesiger Fehlstand aktuell, 00:36:52.521 --> 00:36:57.101 dass auch die BNSA bis jetzt kaum investiert hat in Aufklärung, 00:36:57.121 --> 00:37:00.941 in überhaupt Bekanntmachung, was es in DSA gibt, an auch exakt die Ausstattung 00:37:00.941 --> 00:37:04.561 von Vereinen, von Stellen, von Beratungsorganisationen, an die man sich wenden 00:37:04.561 --> 00:37:06.781 kann. Also da gibt es, würde ich sagen, eine relativ große Lücke. 00:37:07.380 --> 00:37:10.000 Vielleicht sollte man nochmal eine Sache zum Verständnis klar machen. 00:37:10.360 --> 00:37:14.440 Ich habe das jetzt ein bisschen kritisch angemerkt, aber erstmal ist ja der 00:37:14.440 --> 00:37:17.520 DSA, du hast es vorhin erwähnt, ich werde es nur nochmal betonen, dafür da, 00:37:17.760 --> 00:37:23.280 dass die Pflichten für die großen Plattformen besser werden in Bezug zum Beispiel auf die Meldung. 00:37:23.980 --> 00:37:28.560 Also die müssen auch nachgewiesen bestimmte Beschwerdewege haben und auch reagieren, 00:37:28.580 --> 00:37:32.040 zum Beispiel auch nicht immer nur automatisiert reagieren. 00:37:32.120 --> 00:37:34.920 Also im Prinzip ist ja der DSA vor allen Dingen dafür da, dass es diese Wege 00:37:34.920 --> 00:37:36.020 überhaupt gibt und zwar überall. 00:37:37.660 --> 00:37:40.900 Und mein Plädoyer sollte jetzt nicht unbedingt sein, okay, das müsste jetzt 00:37:40.900 --> 00:37:41.860 die Bundesnetzagentur machen. 00:37:42.000 --> 00:37:43.180 Aber das Letzte, was du gesagt hast, 00:37:43.200 --> 00:37:46.820 ist, glaube ich, jetzt wichtiger klarzumachen, was sagt denn der DSA? 00:37:47.020 --> 00:37:49.180 Was kann ich als Einzelner tun? 00:37:49.700 --> 00:37:53.340 Und vielleicht auch, wo sind diese Beschwerdestellen bei den großen Plattformen, 00:37:53.340 --> 00:37:56.640 das wäre doch eigentlich eine Forderung, die man an die Bundesnetzagentur stellen 00:37:56.640 --> 00:37:57.960 könnte, oder siehst du das anders? 00:37:58.140 --> 00:38:01.200 Ich glaube, das ist auch wieder so ein Klassiker, dass wir jetzt irgendwie als 00:38:01.200 --> 00:38:03.100 Zivilgesellschaft wieder schauen müssen. 00:38:04.900 --> 00:38:11.360 Dass sowohl alle Menschen ihre Rechte kennen, die sie jetzt auf einmal innehaben, 00:38:11.460 --> 00:38:15.740 aber nicht nur dafür sorgen müssen, dass das passiert, sondern auch noch dafür sorgen müssen, 00:38:15.920 --> 00:38:20.480 dass es irgendwie eine Durchsetzung dieser Rechte gibt, oder wie siehst du das? 00:38:21.640 --> 00:38:24.580 Ja, genau. Das ist natürlich auf der einen Seite eine Rolle, 00:38:24.600 --> 00:38:27.760 die die Zivilgesellschaft auch schon immer hatte, so Watchdog auch sein, 00:38:27.880 --> 00:38:29.700 werden eigentlich Dinge umgesetzt und auch wollte. 00:38:29.860 --> 00:38:33.840 Also es waren auch ganz klar in den Verhandlungen zum DSA, die europäische Zivilgesellschaft 00:38:33.840 --> 00:38:37.380 war sehr stark involviert, hat sehr viel Expertise, kann sehr viel damit dazu beisteuern. 00:38:37.860 --> 00:38:40.380 Aber ich würde auch sagen, es gibt da so ein gewisses Spannungsfeld. 00:38:40.480 --> 00:38:45.520 Man kann nicht gleichzeitig mit der Kommission zusammenarbeiten und sozusagen 00:38:45.520 --> 00:38:46.740 Enforcement anstreben. 00:38:47.350 --> 00:38:50.290 Und gleichzeitig die Kommission beaufsichtigen und Watchdog sein. 00:38:50.630 --> 00:38:54.430 Das ist so das Spannungsverhältnis. Und dazu kommt die ungeklärte Finanzierungslage 00:38:54.430 --> 00:38:55.430 für ganz viele Organisationen. 00:38:55.450 --> 00:38:59.750 Also in Deutschland, wir reden jeden Tag hier natürlich alle über die Haushaltsverhandlungen. 00:38:59.790 --> 00:39:03.050 Ganz, ganz viele NGOs in dem Bereich sind ganz akut davon betroffen. 00:39:03.170 --> 00:39:06.730 Das könnte wirklich massiv in ihre Arbeit einschneiden. und genauso natürlich 00:39:06.730 --> 00:39:08.590 auch in anderen Ländern oder auf der europäischen Ebene. 00:39:08.650 --> 00:39:13.150 Also es gibt einfach viel zu wenig Geld für diese Arbeit und aktuell würde ich 00:39:13.150 --> 00:39:17.910 schon sagen, ist es so, dass es eine Erwartungshaltung gibt von Aufsichtsbehörden, 00:39:17.950 --> 00:39:20.010 insbesondere der Kommission, an die Zivilgesellschaft, 00:39:20.250 --> 00:39:24.490 hey, ihr wolltet es immer, jetzt ist der DSA da, jetzt liefert doch mal Beweise, 00:39:24.610 --> 00:39:27.070 jetzt sagt doch mal, wo läuft es denn schlecht und das ist natürlich auch eine 00:39:27.070 --> 00:39:29.570 tolle Aufgabe und das ist auch eine wichtige Aufgabe und wir wollen natürlich 00:39:29.570 --> 00:39:31.590 auch da uns beteiligen und da hilfreich sein. 00:39:32.530 --> 00:39:35.710 Aber ich würde sagen, es ist eine relativ große Spannung Und ich denke, 00:39:35.770 --> 00:39:39.530 aktuell läuft es noch ganz gut und es ist gut angelaufen und die Kommission 00:39:39.530 --> 00:39:42.210 ist auch sehr offen und möchte auch diese, also wirklich sehr, 00:39:42.270 --> 00:39:44.410 sehr offen und zugewandt, aber es ist natürlich klar, dass früher oder später 00:39:44.410 --> 00:39:47.170 da Konflikte auftauchen werden und dann wird es spannend. 00:39:47.170 --> 00:39:51.210 Bei der Bundesnetzagentur selbst, also dem deutschen Coordinator, 00:39:51.770 --> 00:39:54.190 gibt es auch eine zivilgesellschaftliche Beteiligung. 00:39:54.210 --> 00:40:00.610 Die ist in einem Beirat festgelegt, der sich zusammensetzt aus zur Hälfte Zivilgesellschaft, 00:40:00.830 --> 00:40:04.190 ein Viertel Wissenschaft und ein Viertel Wirtschaft. 00:40:04.650 --> 00:40:08.130 Ist schon was bekannt, wer in diesem Beirat sein wird? 00:40:09.063 --> 00:40:12.803 Nee, noch gar nicht. Also der existiert noch gar nicht, ne? 00:40:12.823 --> 00:40:17.103 Es gibt auch keine Gerüchte, die du jetzt hier exklusiv in unserem Super-Podcast... 00:40:17.103 --> 00:40:20.723 Keiner von uns hat was davon gehört, deswegen kann da ja niemand drin sitzen. 00:40:21.763 --> 00:40:24.843 Also soweit ich gehört habe, soll das noch vor dem Sommer passieren. 00:40:25.463 --> 00:40:27.463 Nächste Woche ist die letzte Sitzungswoche. Ich weiß nicht genau, 00:40:27.583 --> 00:40:28.763 wie Sommer berechnet wird. 00:40:28.883 --> 00:40:31.343 Denn der Bundestag muss sozusagen da sein, okay geben. Genau, 00:40:31.363 --> 00:40:33.163 also sozusagen der Prozess, das kann ich vielleicht kurz sagen, 00:40:33.203 --> 00:40:36.383 der Prozess ist so, weil ich es verstanden habe, aber ist der Ausschuss für 00:40:36.383 --> 00:40:40.223 Digitales, also sozusagen Mitglied des Beirats, benennt. 00:40:40.743 --> 00:40:44.063 Und ich denke, die werden dann vom Bundestag bestätigt. Ich glaube, das ist das Verfahren. 00:40:44.763 --> 00:40:48.643 Also gut, wir können keine exklusiven Informationen über den Beirat raustun, leider. 00:40:48.803 --> 00:40:52.963 Das wäre jetzt schön gewesen. Aber ich möchte nochmal betonen, 00:40:53.123 --> 00:40:56.383 dass es wirklich, das ist was, also es steht nicht im DSA, es hätte Deutschland 00:40:56.383 --> 00:40:58.123 nicht machen müssen. Aber das ist wirklich eine gute Idee. 00:40:58.443 --> 00:41:01.143 Also es gibt keine Verpflichtung, Zivilgesellschaft überhaupt zu beteiligen. 00:41:01.143 --> 00:41:02.423 Und das zum Beispiel etwas, 00:41:02.583 --> 00:41:06.823 was sehr, sehr sinnvoll auch wäre auf europäischer Ebene, um eben auch sozusagen 00:41:06.823 --> 00:41:11.363 ein Forum zu schaffen, das existiert, wo Zivilgesellschaft sich beteiligen kann, 00:41:11.403 --> 00:41:14.243 wo sie Input geben kann, was aber nicht vom guten Willen der Kommission abhängig 00:41:14.243 --> 00:41:17.423 ist, sondern was festgeschrieben ist, was ein Sekretariat hat, was Mittel hat. 00:41:17.643 --> 00:41:21.163 Deswegen, das ist eigentlich so meine Hoffnung, dass sich auch andere daran 00:41:21.163 --> 00:41:23.663 ein Beispiel nehmen und das so ein bisschen Schule macht. 00:41:23.923 --> 00:41:27.283 Naja und ich glaube natürlich auch, gerade bei solchen Content-Moderation-Fragen, 00:41:27.383 --> 00:41:29.603 aber auch bei anderen Fragen, die da reguliert werden sollen, 00:41:29.603 --> 00:41:34.643 weil es ist natürlich wichtig, lokale Expertise zu haben in einer zentralen Stelle, 00:41:35.503 --> 00:41:39.703 was natürlich am besten wahrscheinlich passieren würde über zivilgesellschaftliche 00:41:39.703 --> 00:41:42.843 Expertise, die bei der EU-Kommission dann auch nochmal gesammelt ist. 00:41:44.323 --> 00:41:50.283 Genau, es gibt quasi ein Board of Coordinators, wo sich quasi 27 Aufsichtsbehörden 00:41:50.283 --> 00:41:52.143 der Länder nochmal vereinigen und treffen. 00:41:52.183 --> 00:41:54.683 Also doch, hat das mit der Kommission doch nicht so gut geklappt. 00:41:54.683 --> 00:41:56.503 Die kommen jetzt doch alle in eine eigene Aufsicht. 00:41:57.643 --> 00:42:01.223 Und da denke ich, wäre der richtige Ort, um das anzusiedeln. 00:42:02.078 --> 00:42:06.878 Okay, jetzt haben wir ein bisschen über den Ist-Zustand geredet. 00:42:06.878 --> 00:42:09.258 Wir haben ein bisschen geredet, welche Institutionen hier was tun. 00:42:09.718 --> 00:42:11.818 Vielleicht auch schon ein bisschen in die Kristallkugel geguckt. 00:42:11.898 --> 00:42:16.918 Ich würde das gerne mal wissen, wie das beim, jetzt aus Sicht der GFF, 00:42:17.198 --> 00:42:19.978 was sozusagen euer Plan ist für die Nahzeit. 00:42:20.278 --> 00:42:21.958 Welchen Unternehmen wollt ihr euch widmen? 00:42:22.278 --> 00:42:25.878 Wo sind so die Themen, die euch unter den Nägeln brennen? Also wo wollt ihr 00:42:25.878 --> 00:42:29.458 da aktiv werden? Du hast schon gesagt, ihr habt jetzt schon mal einmal bei der 00:42:29.458 --> 00:42:30.458 EU-Kommission probiert. 00:42:30.778 --> 00:42:33.238 Wie reagieren die, wenn ihr euch da strukturell beschwert? 00:42:34.978 --> 00:42:38.318 Und auch schon mit der Bundesnetzagentur. 00:42:38.478 --> 00:42:40.638 Aber wo sind denn eigentlich die Sachen, die euch unter den Nägeln brennen, 00:42:40.698 --> 00:42:43.798 inhaltlich? Also wo glaubt ihr, wo sind die Beschwerden, die man noch echt mal 00:42:43.798 --> 00:42:46.678 breittreten muss? Ja, drei Bereiche. 00:42:46.758 --> 00:42:50.958 Der erste ist klassisch Inhalte-Moderation, also die Durchsetzung und Wahrung 00:42:50.958 --> 00:42:52.998 von Grundrechten in der Inhalte-Moderation. 00:42:53.298 --> 00:42:56.978 Da sind wir auch einfach angewiesen darauf, dass Menschen zu uns kommen und 00:42:56.978 --> 00:42:58.178 uns erzählen, was ihnen passiert ist. 00:42:58.238 --> 00:43:01.958 Also hier der Aufruf, wenn eure Inhalte gesperrt werden oder euer Konto blockiert 00:43:01.958 --> 00:43:03.338 wird, dann meldet euch gerne. 00:43:03.338 --> 00:43:07.798 Wenn ihr das Gefühl habt, dass es sozusagen nicht rechtsmäßig passiert ist, 00:43:07.798 --> 00:43:11.258 dass vielleicht auch bestimmte politische Inhalte zensiert worden sind oder 00:43:11.258 --> 00:43:16.238 darauf eingegriffen wurde, dann sind wir erstmal neugierig und schauen uns das gerne an. 00:43:17.198 --> 00:43:20.558 Der zweite Bereich ist der Zugang zu Forschungsdaten. 00:43:20.598 --> 00:43:22.538 Da haben wir noch gar nicht drüber gesprochen, aber das ist auch eine große 00:43:22.538 --> 00:43:27.738 Innovation des DSA, dass es ein relativ weitgehendes neues Recht gibt für Forschende 00:43:27.738 --> 00:43:29.438 Zugang zu Plattformdaten zu bekommen. 00:43:29.938 --> 00:43:34.358 Das wollen wir durchsetzen mit Forschenden, also wirklich dafür kämpfen, 00:43:34.398 --> 00:43:35.178 dass sie Daten auch bekommen. 00:43:35.318 --> 00:43:37.338 Wir haben uns natürlich auch vorstellen können, dass wir der Plattform versuchen 00:43:37.338 --> 00:43:39.218 werden zu weigern, diese Daten rauszugeben. 00:43:39.398 --> 00:43:44.038 Aber auch ganz konkret wollen wir unterstützen, indem wir Konzepte für Datenschutz 00:43:44.038 --> 00:43:47.418 und Datensicherheit erarbeiten und zur Verfügung stellen, damit andere das nutzen 00:43:47.418 --> 00:43:51.298 können und ihre Chancen überhaupt, einen Antrag zu schreiben, 00:43:51.338 --> 00:43:54.278 der durchkommen könnte, um die zu verbessern. Und der dritte. 00:43:56.983 --> 00:44:01.663 Plattform Design nenne, also die Aspekte des DSA, die nicht unbedingt auf einzelne 00:44:01.663 --> 00:44:04.523 NutzerInnenrechte abzielen, wie zum Beispiel im Bereich der Inhaltemoderation, 00:44:04.763 --> 00:44:08.223 sondern eigentlich wirklich das Design und die Gestaltung von Online-Plattformen 00:44:08.223 --> 00:44:10.763 angehen, die aber dann sehr, sehr großen Einfluss darauf haben, 00:44:10.843 --> 00:44:13.383 wie NutzerInnen sich dort bewegen können und was sie vorfinden. 00:44:13.683 --> 00:44:18.763 Also zum Beispiel Transparenzberichterstattung, algorithmische Empfehlungssysteme. 00:44:20.043 --> 00:44:25.723 Die Regelung zu Online-Werbung, die systemischen Risiken, das sind Sachen, die uns interessieren. 00:44:25.783 --> 00:44:28.083 Und ich denke, da ist noch sehr, sehr viel zu tun. 00:44:28.183 --> 00:44:32.523 Also in allen drei Kategorien kann man sehr viel oder muss aus meiner Sicht 00:44:32.523 --> 00:44:35.483 sehr viel überprüft werden. Du hast zum Beispiel gerade schon die Meldewege besprochen. 00:44:36.363 --> 00:44:38.763 Da gibt es jetzt auch schon erste Beschwerden, aber es ist klar, 00:44:38.783 --> 00:44:41.743 dass die Meldewege auf vielen Plattformen nicht besonders gut ausgestattet sind, 00:44:41.803 --> 00:44:44.243 auch nicht besonders gut funktionieren, nicht einfach zu nutzen sind. 00:44:45.063 --> 00:44:48.443 Ich denke auch bei so ein paar anderen Sachen, es gibt zum Beispiel Verpflichtungen, 00:44:49.263 --> 00:44:53.163 NutzerInnen über jede Inhalte-Moderation-Aktion zu benachrichtigen, 00:44:53.203 --> 00:44:56.243 auch wenn Inhalte nicht entfernt werden, sondern eingeschränkt, 00:44:56.243 --> 00:45:00.283 wenn eine Sichtbarkeit, also Shadowbanning vorliegt, was auch sehr selten passiert, 00:45:00.483 --> 00:45:02.163 dass diese Benachrichtigungen verschickt werden. 00:45:02.283 --> 00:45:04.163 Also ich denke, da gibt es schon so große systemische Fragen, 00:45:04.343 --> 00:45:05.763 an die wir gerne ran möchten. 00:45:06.083 --> 00:45:11.003 Du hast jetzt aber vermieden, irgendeine bestimmte große Online-Plattform mal zu benennen. 00:45:11.083 --> 00:45:15.723 Also habt ihr hier irgendwelche besonders im Fokus, die euch schon total negativ aufgefallen sind? 00:45:15.763 --> 00:45:19.163 Oder ist das jetzt erstmal nur… Was natürlich irgendwie immer in aller Munde 00:45:19.163 --> 00:45:22.563 ist, auch gerade wenn wir über Missinformationen reden und du hast es gerade 00:45:22.563 --> 00:45:25.583 auch gar nicht genannt, glaube ich, bei den Großen, was ist eigentlich mit TikTok? 00:45:26.043 --> 00:45:27.603 Das ist ja immer eine gute Frage. 00:45:30.383 --> 00:45:37.143 Inwieweit sind die vom DSA betroffen? Setzen sie den um? Weigern sie sich eher, den umzusetzen? 00:45:38.672 --> 00:45:41.492 Was ist da dein Eindruck? Also TikTok ist auch eine sehr große Plattform, 00:45:41.552 --> 00:45:44.352 fällt auch darunter. Wir haben auch schon eine Beschwerde, also diese Sammelbeschwerde, 00:45:44.392 --> 00:45:45.652 die ich kurz erwähnt habe, da war TikTok auch dabei. 00:45:49.192 --> 00:45:53.912 TikTok, aus meiner Erfahrung, so wie ich drauf blicke, bemüht sich, compliant zu sein. 00:45:54.472 --> 00:45:58.452 Also ich glaube, TikToks generelle Strategie ist eher, Dinge umzusetzen und 00:45:58.452 --> 00:46:04.872 da zum Beispiel dann weniger auch auf das Ausbalancieren von verschiedenen Grundrechten 00:46:04.872 --> 00:46:05.952 zu schauen als vielleicht andere. 00:46:05.952 --> 00:46:09.352 Also zum Beispiel, gerade wenn es um Datenausleitungen an den Strafverfolgungsbehörden 00:46:09.352 --> 00:46:12.232 geht, mein Eindruck ist, TikTok ist eher bereit, Dinge auszuleiten, 00:46:12.252 --> 00:46:13.452 ohne nochmal nachzufragen. 00:46:15.512 --> 00:46:17.472 Ehrlich gesagt, wir schauen weniger auf konkrete Unternehmen, 00:46:17.592 --> 00:46:19.552 aber eher auf konkrete Themen, die uns interessieren. 00:46:19.692 --> 00:46:22.392 Also bis jetzt haben wir eigentlich fast alle großen Plattformen, 00:46:22.392 --> 00:46:26.152 wo Inhalte geteilt werden, haben wir schon ein bisschen eingereicht. 00:46:27.132 --> 00:46:29.532 Es gibt ein paar Sachen, die ich persönlich besonders spannend finde, 00:46:29.572 --> 00:46:32.192 zum Beispiel App-Stores. Ich habe das Gefühl, da passieren wilde Sachen. 00:46:32.832 --> 00:46:36.092 Sehr, sehr wenig Transparenz darüber, wie da eigentlich Inhalte moderiert werden. 00:46:37.152 --> 00:46:39.632 Online-Werbung ist auch so ein Thema, wo ich das Gefühl habe, 00:46:39.792 --> 00:46:42.252 dass relativ wenig Aufmerksamkeit drauf ist. 00:46:42.452 --> 00:46:47.152 Vor allem auch Monetarisierung von Inhalten. Also sehr viele Menschen verdienen 00:46:47.152 --> 00:46:49.492 relativ viel Geld damit, Inhalte zu produzieren. 00:46:49.692 --> 00:46:52.992 Wenn diese Monetarisierung weggenommen wird, ist ein gigantischer Einschnitt, 00:46:53.072 --> 00:46:54.412 auch relativ wenig Fokus darauf. 00:46:54.952 --> 00:46:57.192 Und gleichzeitig auch das Gefühl, es gibt viele Themen, die sehr, 00:46:58.352 --> 00:47:00.752 also von sehr vielen sehr engmaschig betreut werden. 00:47:00.852 --> 00:47:02.752 Also zum Beispiel Desinformation ist natürlich so ein Thema, 00:47:02.772 --> 00:47:05.132 das auch gerade einfach sehr schick ist, so im Kontext der Wahlen. 00:47:05.592 --> 00:47:07.332 Es gibt ganz viele Meinungen dazu. 00:47:08.472 --> 00:47:12.312 Ich finde es sehr schwierig, damit umzugehen. Auch die Definition, 00:47:12.312 --> 00:47:13.192 die Entscheidung zwischen. 00:47:15.272 --> 00:47:18.332 Desinformation, Missinformation, Missverständnissen ist nicht immer so leicht. 00:47:19.432 --> 00:47:22.452 Oder zum Beispiel auch Twitter ist ja auch so ein Fall. 00:47:22.532 --> 00:47:24.952 Also alle stürzen sich auf Twitter und Und klar, ich finde auch, 00:47:25.052 --> 00:47:29.292 das ist skandalös, wie schlecht Dinge dort funktionieren, aber da ist das Gefühl, 00:47:29.392 --> 00:47:33.512 das ist gut abgedeckt, da müssen wir jetzt nicht auch noch unsere Kapazitäten drauf verwenden. 00:47:33.652 --> 00:47:37.832 Ja, da würde mich eine Einschätzung auch nochmal interessieren, 00:47:37.852 --> 00:47:42.412 Konz hat es ja auch gerade gesagt, der DSA war so ein bisschen driven bei die 00:47:42.412 --> 00:47:46.332 EU-Wahlen kommen und da müssen wir irgendwas gegen Missinformationen tun und so weiter und so fort. 00:47:46.332 --> 00:47:55.092 Hast du das Gefühl, dass der DSA so extrem trend-driven ist in den Sachen, 00:47:55.152 --> 00:47:58.112 die er versucht zu regeln oder hast du schon das Gefühl, 00:47:58.192 --> 00:48:03.712 dass es auch jetzt in der Umsetzung auch wirklich zu gut überlegten Regelungen kommt? 00:48:05.838 --> 00:48:08.758 Also ich würde nicht sagen, dass es von Trends um den geprägt ist, 00:48:08.818 --> 00:48:13.038 aber es war schon ein Versuch auf aktuelle Herausforderungen einzugehen. 00:48:13.658 --> 00:48:17.078 Und eben manchmal besser, manchmal schlechter. Also ich glaube dieser Krisenmechanismus, 00:48:17.118 --> 00:48:20.018 den ich erwähnt habe, ist für mich zum Beispiel von eher nicht so gut gelaufen. 00:48:20.478 --> 00:48:23.898 Die Artikel zu systemischen Risiken, wo zum Beispiel auch Desinformation oder 00:48:23.898 --> 00:48:26.338 Schutz von Wahlen drin sind, würde ich sagen, die machen schon mehr Sinn. 00:48:27.258 --> 00:48:29.518 Also für mich gibt es da so ein grundlegendes Missverständnis. 00:48:30.498 --> 00:48:34.558 Also Desinformation ist ja in aller, allermeisten Fällen nicht rechtswidrig. 00:48:34.678 --> 00:48:37.038 Also die Inhalte, die da verbreitet werden, sind meistens nicht rechtswidrig. 00:48:37.058 --> 00:48:41.458 Es ist scheiße, es ist oft falsch, es sind oft Dinge, die aus dem Kontext gerissen 00:48:41.458 --> 00:48:44.458 werden oder falsch in den Kontext gestellt werden, aber es ist selten illegal. Illegal. 00:48:44.818 --> 00:48:47.798 Der DSA reguliert in allererster Linie illegale Inhalte. 00:48:48.178 --> 00:48:52.038 Das heißt, es ist relativ begrenzt, was man unter dem DSA tun kann, 00:48:52.158 --> 00:48:53.598 um gegen Desinformation vorzugehen. 00:48:53.638 --> 00:48:56.158 Und das wird manchmal so ein bisschen übertrieben dargestellt, 00:48:56.298 --> 00:48:58.498 weil natürlich auch das für die Politik jetzt wichtig ist zu sagen, 00:48:58.578 --> 00:48:59.498 nee, wir haben den DSA und den 00:48:59.498 --> 00:49:01.858 setzen wir jetzt durch und damit ist Desinformation bekämpft in Europa. 00:49:01.858 --> 00:49:07.218 Aber es ist ja ein sehr viel komplexeres Problem mit sehr vielen verschiedenen 00:49:07.218 --> 00:49:10.078 komplexen Akteuren, die daran beteiligt sind und einfach nur zu sagen, 00:49:10.198 --> 00:49:13.898 Plattformen sollen jetzt mehr Desinformation löschen, wird dem überhaupt nicht gerecht. 00:49:14.238 --> 00:49:17.578 Deswegen bin ich da so ein bisschen skeptisch und ich glaube, 00:49:17.638 --> 00:49:20.938 das ist auch wichtig, nicht den DSA zu überladen mit Erwartungen, 00:49:20.938 --> 00:49:23.358 die er nicht erfüllen kann. Ich glaube, das sehen wir jetzt auch schon so. 00:49:24.858 --> 00:49:28.598 Niemand weiß, wie gut die DSA-Compliance aussieht. Das wissen wir nicht, 00:49:28.698 --> 00:49:30.798 das wissen die Unternehmen nicht, das weiß aber auch die Europäische Kommission nicht. 00:49:31.258 --> 00:49:33.418 Das ist so ein bisschen auch so ein iterativer Prozess. Manche Sachen sind natürlich 00:49:33.418 --> 00:49:36.158 total offensichtlich, dass es einfach schlecht läuft und wir wissen ziemlich 00:49:36.158 --> 00:49:39.658 genau, wie es gut aussehen könnte. Bei vielen Dingen, gerade so Sachen wie, 00:49:39.758 --> 00:49:45.098 was ist denn ein systemisches Risiko für den öffentlichen Diskurs und wie gehst 00:49:45.098 --> 00:49:46.018 du dagegen vor als Plattform? 00:49:46.258 --> 00:49:48.558 Das ist nicht, was ich jetzt zwei Sätzen beantworten könnte. 00:49:48.698 --> 00:49:51.258 Ich glaube, ich habe ein paar Ideen, aber es ist nicht ganz klar, 00:49:51.458 --> 00:49:54.238 wie ideale Compliance damit aussieht. Das heißt, ich glaube, 00:49:54.298 --> 00:49:56.518 wir müssen auch feuchtig sein, gerade in den ersten Monaten, 00:49:56.738 --> 00:49:59.778 vielleicht auch im ersten Jahr zu sagen, Dinge funktionieren nicht, 00:49:59.798 --> 00:50:01.058 der DSA muss nachgeschafft werden. 00:50:01.478 --> 00:50:04.018 Wir müssen auch erstmal Erfahrungen damit sammeln und herausfinden, 00:50:04.158 --> 00:50:06.918 was wir eigentlich machen können, was gut funktioniert, was schlecht funktioniert 00:50:06.918 --> 00:50:09.218 und auch so ein bisschen, glaube ich, gemeinsam. 00:50:10.343 --> 00:50:12.783 Uns zu dieser Herausforderung stellen, dass wir noch nicht alle Antworten haben. 00:50:13.083 --> 00:50:15.783 Vielleicht apropos komplexe Probleme und Dinge ausprobieren. 00:50:15.863 --> 00:50:19.523 Ich habe ja ganz am Anfang über die Chatkontrolle geredet und ich sage häufig 00:50:19.523 --> 00:50:22.063 gerne auch mal zu PolitikerInnen, dass sie erstmal abwarten sollen, 00:50:22.223 --> 00:50:27.223 was der DSA eigentlich für Kinder- und Jugendschutz tun kann und welche Maßnahmen 00:50:27.223 --> 00:50:29.723 wir da entwickeln können. Wie blickst du denn da drauf? 00:50:30.143 --> 00:50:34.003 Sagst du so, ja, da gibt es schon gute Tools, wo man jetzt erstmal schauen muss, was passiert? 00:50:35.023 --> 00:50:38.023 Oder hast du eher so das Gefühl, das ist wieder so eine Erwartungshaltung an 00:50:38.023 --> 00:50:40.143 den DSA, die er gar nicht erfüllen kann? 00:50:41.223 --> 00:50:45.243 Also DSA sagt zum Kinder- und Jugendschutz auf der einen Seite, 00:50:45.263 --> 00:50:49.203 dass sozusagen Plattformen sich Dinge ausdenken müssen, um Kinder und Jugendliche zu schützen. 00:50:50.183 --> 00:50:53.603 Und dass sie das quasi auch wirklich auf systemischer Ebene einbauen müssen 00:50:53.603 --> 00:50:56.683 und dass sie auch das sozusagen überprüfen und bewerten müssen. 00:50:56.803 --> 00:50:59.943 Und da bin ich sehr gespannt drauf. Also diese Risikoberichte werden irgendwann 00:50:59.943 --> 00:51:02.803 im Laufe des Jahres veröffentlicht werden und ich glaube, damit kann man was machen. 00:51:03.523 --> 00:51:07.403 Wovor ich so ein bisschen Sorge habe, ist, dass auch im Kontext des DSA diskutiert 00:51:07.403 --> 00:51:11.783 wird, ob Altersverifizierung nicht eigentlich ein notwendiges Tool ist, 00:51:11.843 --> 00:51:14.563 Werkzeug ist, um den DSA umzusetzen und um Kinder und Jugendliche zu schützen. 00:51:14.683 --> 00:51:17.443 Und da habe ich große Bedenken, wie wir alle natürlich. 00:51:18.163 --> 00:51:22.583 Aber das ist so, da habe ich Sorge, dass quasi in irgendwelchen Arbeitsgruppen 00:51:22.583 --> 00:51:25.583 weit weg von der Öffentlichkeit und von demokratischen Gesetzgebungsprozessen 00:51:25.583 --> 00:51:28.763 dann die Altersverifizierung so 00:51:28.763 --> 00:51:32.123 über die Hintertür durch den DSA dann vielleicht doch noch Schule macht. 00:51:32.123 --> 00:51:34.663 Und da sehe ich auf jeden Fall eine große Gefahr. 00:51:34.783 --> 00:51:37.443 Ja, und ich glaube, das ist auch ein viel unterschätztes Thema. 00:51:37.703 --> 00:51:40.423 Alle reden da manchmal im Zusammenhang mit der Chatkontrolle drüber, 00:51:40.463 --> 00:51:43.723 vergessen das aber auch sehr schnell, dass das in der Chatkontrolle vorgesehen ist. 00:51:44.003 --> 00:51:48.063 Und ich glaube, man sollte auch im Hinterkopf haben, dass es nicht nur ein Thema 00:51:48.063 --> 00:51:52.963 ist, was die Chatkontrolle sich vorstellt oder im Rahmen des DSA kommen könnte, 00:51:53.083 --> 00:51:55.583 weil sie jetzt da doch drauf rumreiten, auch in Deutschland. 00:51:55.583 --> 00:52:01.383 Sondern dass auch viele Landesmedienanstalten das gerne im Jugendmedienschutzgesetz 00:52:01.383 --> 00:52:04.043 sehen würden. Also ich glaube, das ist was, 00:52:04.870 --> 00:52:10.210 Wo wir noch viel mit zu tun haben werden. Ich glaube, wir werden dazu mal was 00:52:10.210 --> 00:52:11.430 schreiben, habe ich mir sagen lassen. 00:52:11.630 --> 00:52:16.490 Jetzt live on tape. 00:52:17.370 --> 00:52:21.710 Aber ich glaube, das ist etwas, was man immer im Hinterkopf behalten sollte. 00:52:21.910 --> 00:52:25.230 Aber nichtsdestotrotz, wie du sagst, die Plattformen sollen Dinge einbauen. 00:52:25.310 --> 00:52:29.430 Die sollen irgendwie auch schauen, was funktioniert und das auch entsprechend reporten. 00:52:29.430 --> 00:52:33.350 Und da habe ich irgendwie doch nochmal die Hoffnung, dass wir so ein bisschen 00:52:33.350 --> 00:52:38.330 evidenzbasiert mal sehen, wie die Sachen tatsächlich aussehen könnten, 00:52:39.050 --> 00:52:42.890 ohne dass wir totale Kontrolle ausüben müssen. 00:52:43.050 --> 00:52:45.970 Ich weiß nicht, ob du gerade den Kopf geschüttelt hast oder genickt hast. 00:52:46.430 --> 00:52:52.670 Ja, ich habe die Hoffnung auch, mal sehen. Also ich finde interessant zu sehen, 00:52:52.690 --> 00:52:55.290 dass du relativ entspannt rangehst und auch so ein bisschen mit einer gewissen 00:52:55.290 --> 00:52:56.970 Neugierde für die neuen Mechanismen, 00:52:57.410 --> 00:53:01.450 zu sehen, wie wird das laufen, was wir noch nie ausprobiert haben. 00:53:01.550 --> 00:53:04.390 Das finde ich eigentlich einen ganz guten Ansatz. Ich muss aber auf etwas zurückkommen, 00:53:04.890 --> 00:53:10.430 weil du zweimal explizit auch als Schwäche des DSA diesen Krisenmechanismus erwähnt hast. 00:53:10.490 --> 00:53:13.750 Und ich denke, wir schulden den Hörern auf jeden Fall die Erklärung. 00:53:14.010 --> 00:53:17.390 Was ist dieser Krisenmechanismus und wo siehst du die große Gefahr? 00:53:17.490 --> 00:53:18.290 Ich sehe die nämlich auch. 00:53:18.850 --> 00:53:22.490 Ich finde, die ist total underreported, also wird zu wenig darüber gesprochen. 00:53:22.570 --> 00:53:27.310 Deswegen sollten wir das mal aufklären, oder? Ja, also kurz zusammengefasst 00:53:27.310 --> 00:53:33.330 sagt der Krisenmechanismus, dass es in Fällen von Krisen, und die sind weit 00:53:33.330 --> 00:53:35.010 definiert, öffentliche Sicherheit, 00:53:35.750 --> 00:53:37.690 Public Health, Corona-Pandemie. 00:53:37.690 --> 00:53:39.690 Also meine nationale Sicherheit. Nationaler Sicherheit, genau. 00:53:41.270 --> 00:53:47.690 Kann die Kommission den Plattformen Maßnahmen vorschreiben, beziehungsweise 00:53:47.690 --> 00:53:52.470 ihnen vorschlagen, dass sie dazu zwingen, Maßnahmen zu ergreifen. 00:53:52.630 --> 00:53:55.830 Und das ist ziemlich offen alles. Also ich sage das jetzt auch so ein bisschen 00:53:55.830 --> 00:53:58.370 erlaubt, weil auch dieser Artikel sehr, sehr offen ist. Also es lässt viel zu. 00:53:59.870 --> 00:54:04.370 Und ich kann mir schon vorstellen, wenn wir zum Beispiel zurückdenken an die 00:54:04.370 --> 00:54:08.770 Corona-Pandemie, da war es ja auch, sage ich mal, sehr dynamische Diskussion. 00:54:08.890 --> 00:54:11.890 So verbreiten Online-Plattformen eigentlich gerade lebensrettende Informationen 00:54:11.890 --> 00:54:14.610 oder eigentlich nur Desinformationen? Und da hat es ja die Einschätzung, 00:54:14.690 --> 00:54:17.930 was eigentlich Desinformation ist oder nicht, täglich eigentlich geändert. 00:54:18.210 --> 00:54:22.910 Und da sozusagen an so einem zentralen Punkt eine so politische Institution 00:54:22.910 --> 00:54:25.850 zu haben, die da direkt eingreifen kann, das halte ich für sehr gefährlich. 00:54:26.390 --> 00:54:30.710 Ich erinnere daran, dass mit Beginn des Ukraine-Konfliktes wir einfach ja auch 00:54:30.710 --> 00:54:34.450 ganz drastische Zensurmast haben, die ich, glaube ich, seit dem Zweiten Weltkrieg 00:54:34.450 --> 00:54:37.570 nicht mehr gesehen habe in Europa, durchgesetzt haben, die bis heute bestehen 00:54:37.570 --> 00:54:38.770 in Bezug auf russische Sender. 00:54:39.530 --> 00:54:44.550 Und ich denke mal, da könnte uns noch einige drohen. Aber das hast du doch eben wieder gemacht. 00:54:44.630 --> 00:54:48.170 Du hast jetzt explizit die Desinformation erwähnt, aber eigentlich geht es ja 00:54:48.170 --> 00:54:49.810 um rechtswidrige Inhalte, nicht wahr? 00:54:49.970 --> 00:54:55.270 Also die Diskussion darum ist doch echt oft entkoppelt von dem, was da drinsteht. 00:54:56.786 --> 00:54:58.986 Ja, ich glaube, es wird auch oft verkürzt. Also vielleicht habe ich auch gerade 00:54:58.986 --> 00:54:59.986 ein bisschen zu sehr verkürzt. 00:55:00.486 --> 00:55:03.086 Kann ja auch sozusagen sein, dass dann in so einer Krise es dann eher darum 00:55:03.086 --> 00:55:06.226 geht, dass vielleicht nochmal genauer geschaut wird, wie man nicht vielleicht 00:55:06.226 --> 00:55:09.406 doch auch manche Sachen als illegal sozusagen herdefinieren kann. 00:55:10.526 --> 00:55:13.446 Oder eben, dass bestimmte Maßnahmen ergriffen werden müssen, 00:55:13.526 --> 00:55:18.046 um bestimmte Inhalte, Kategorien einzugrenzen oder Informationen bereitzustellen. 00:55:18.086 --> 00:55:22.066 Aber auch das, also wenn sozusagen staatliche Akteure einen direkten Weg haben, 00:55:22.526 --> 00:55:26.166 also Unternehmen mit gigantischem Reach dazu zu zwingen, bestimmte Informationen 00:55:26.166 --> 00:55:28.866 bereitzustellen, das finde ich auch potenziell problematisch. 00:55:28.926 --> 00:55:30.886 Also sozusagen die andere Seite, ja. Genau, die andere Seite. 00:55:32.626 --> 00:55:35.806 Ja, ich glaube, das sind so Sachen, die, ja, wir müssen einfach warten, 00:55:35.886 --> 00:55:40.606 was passiert. Also ich sehe sozusagen alle Missbrauchsoptionen recht deutlich. 00:55:41.526 --> 00:55:45.006 Gleichzeitig ist glaube ich auch klar, dass da viel Aufmerksamkeit drauf ist, 00:55:45.086 --> 00:55:47.906 dass da auch die Gesellschaft sehr wachsam ist. 00:55:48.466 --> 00:55:52.986 Von daher, ich glaube, ja, ich würde nicht sagen, wir müssen auf die nächste 00:55:52.986 --> 00:55:53.966 Krise warten und schauen, was passiert. 00:55:54.466 --> 00:56:00.306 Aber ich glaube, es ist vielen klar, dass dieser Mechanismus nicht ideal ist 00:56:00.306 --> 00:56:03.446 und dass es da viele Fragezeichen gibt und dass da auch die Kommission mit sehr, 00:56:03.486 --> 00:56:04.866 sehr viel Sorgfalt agieren werden muss. 00:56:06.206 --> 00:56:10.126 Okay, also vielleicht so als Abschluss jetzt, wir haben jetzt nochmal über diesen 00:56:10.126 --> 00:56:15.566 Krisenmechanismus gesprochen, was würdest du denn, was sind so Facts, 00:56:15.606 --> 00:56:20.506 die man mitnehmen sollte über den DSA, die vielleicht nicht so klar sind? 00:56:20.566 --> 00:56:23.086 Also du hast schon ein paar genannt jetzt während unseres Gesprächs, 00:56:23.106 --> 00:56:25.186 aber so vielleicht ganz abschließend, dass das nochmal das ist, 00:56:25.206 --> 00:56:26.906 was man jetzt aus dieser Folge mitnimmt. 00:56:27.366 --> 00:56:30.886 Was sollte man über den DSA wissen, was vielleicht auch nicht so bekannt ist 00:56:30.886 --> 00:56:34.046 und was sollte man vielleicht lieber auch einfach vergessen? 00:56:34.046 --> 00:56:39.286 Oder ein Verein wie der GFS und sozusagen Arbeit von Leuten wie dir überlassen. 00:56:40.897 --> 00:56:45.417 Also man sollte wissen, dass wir jetzt zum ersten Mal Rechte haben, 00:56:45.557 --> 00:56:48.977 um uns gegen Handlungen der Plattform zu wehren und die sollte man nutzen. 00:56:49.077 --> 00:56:52.617 Und das geht am allerbesten tatsächlich, denke ich, wenn man sich ein bisschen 00:56:52.617 --> 00:56:56.837 Hilfe sucht und unter anderem eben Organisationen wie auf die GFF zukommt und uns anspricht. 00:56:58.497 --> 00:57:02.677 Und es gibt auch und ich glaube es ist auch wichtig, es gibt neue Transparenz 00:57:02.677 --> 00:57:04.837 und neuen Zugang zu Daten und das sollten wir auch nutzen. 00:57:05.157 --> 00:57:08.317 Also auch im Netzgeg gab es einen Anspruch auf Forschungsdatenzugang, 00:57:08.337 --> 00:57:10.737 der nie genutzt wurde, aus verschiedenen Gründen, aber trotzdem, 00:57:10.777 --> 00:57:13.217 jetzt haben wir den und jetzt müssen wir ihn auch nutzbar machen und deswegen 00:57:13.217 --> 00:57:15.497 auch hier ein Aufruf an alle, die in der, 00:57:15.977 --> 00:57:19.017 Forschungswiegesellschaft sind oder in irgendeiner Uni und Lust haben, 00:57:19.137 --> 00:57:21.957 auf Sachen zu forschen, jetzt ist der Moment, um nachzudenken, 00:57:21.997 --> 00:57:25.817 was für Daten wollt ihr eigentlich, wie könnte man die herkriegen und da aktiv zu werden. 00:57:25.817 --> 00:57:28.977 Ich glaube, das ist mein Hauptappell. 00:57:29.317 --> 00:57:32.357 Jetzt ist es da, lass uns nutzen und das Beste draus machen und die Sachen, 00:57:32.377 --> 00:57:36.457 die nicht gut laufen, dann auch angehen und im Zweifelsfall auch gerecht überprüfen 00:57:36.457 --> 00:57:39.477 lassen, ob manche Sachen eigentlich legitim sind, manche Artikel, manche nicht. 00:57:39.477 --> 00:57:43.737 Ja, es gibt auf jeden Fall viel zu tun und auch viel Spielraum, 00:57:43.797 --> 00:57:45.197 der uns da gegeben wurde. 00:57:45.777 --> 00:57:51.317 Vielen Dank, dass du da warst und wir jetzt mal zum Ende dieses leidentlichen 00:57:51.317 --> 00:57:54.197 Gesetzgebungsprozess gekommen sind. 00:57:54.857 --> 00:57:58.457 Und ja, vielen Dank. Vielen Dank euch. 00:57:58.817 --> 00:58:03.877 Wir werden uns ein neues Thema zum nächsten Mal überlegen. Das bereiten wir aber noch gleich. 00:58:04.617 --> 00:58:09.297 Ja, das hat ja nicht so viel mit Gesetzgebung zu tun. Also wir bemühen uns ja 00:58:09.297 --> 00:58:12.197 hier in Bettige Bretter immer so ein bisschen um diese Policy-Arbeit. 00:58:12.197 --> 00:58:17.857 Also von der glaube ich auch jetzt relativ viel auch nochmal so zwischen den Inhalten durchkam. 00:58:18.357 --> 00:58:22.817 Ja, also ich glaube vielleicht machen wir nochmal ein Ask me anything, 00:58:23.077 --> 00:58:24.997 wie ist es eigentlich für die Kommission zu arbeiten. 00:58:26.517 --> 00:58:29.617 Jederzeit. Das an einer anderen Stelle. 00:58:29.657 --> 00:58:36.137 Ich glaube jetzt haben wir die Gehirne wieder genug verknotet und damit bis zum nächsten Mal. 00:58:36.237 --> 00:58:39.157 Und vielen Dank. Danke euch. Ciao, ciao. 00:58:39.760 --> 00:59:03.755 Music.