WEBVTT 00:00:00.017 --> 00:00:06.457 Hallo und herzlich Willkommen zum Chaos Radio Nummer 279 nach, ich wollte gerade sagen nach 00:00:06.457 --> 00:00:09.457 langer Zeit, aber das stimmt ja gar nicht, weil es gab ja gerade eine Folge, auch wenn 00:00:09.457 --> 00:00:15.357 das was ganz anderes war, aber eben jetzt mal wieder ein Chaos Radio, was auch immer das bedeutet. 00:00:15.357 --> 00:00:20.588 Das wird sich vielleicht in der Zukunft auch ändern. Anyways, heute sprechen wir wieder, wie wir das im Chaos Radio so machen, über ein Thema. 00:00:21.380 --> 00:00:26.257 Das irgendwie mit unserer digitalen Welt zu tun hat, wo irgendwie Dinge kaputt sind oder 00:00:26.257 --> 00:00:31.057 kaputt sein könnten oder dazu gebracht werden, dass man sie vielleicht kaputt machen kann 00:00:31.228 --> 00:00:35.257 und wie sich das mit uns, der Gesellschaft und der IT-Technologie alles sozusagen so 00:00:35.257 --> 00:00:38.897 zusammenschweißt oder auseinanderfällt, das werden wir alles sehen. Und es geht heute 00:00:38.897 --> 00:00:43.097 um etwas, was immer mal wieder so Thema ist, aber auf einer anderen Ebene, wie wir das 00:00:43.097 --> 00:00:48.777 sonst hier besprechen. Es geht um einerseits irgendwas mit Gesundheit, irgendwas mit digital 00:00:48.777 --> 00:00:54.817 und dann, das ist der große Unterschied, heute im Hauptthema oder im Hauptfokus muss 00:00:54.817 --> 00:01:01.917 muss man sagen, Europa. Wie das alles zusammenhängt, verrät uns jetzt unter anderem Bianca Kastl, 00:01:02.257 --> 00:01:06.817 deren Hauptberuf, habe ich mir sagen lassen, es ist Faxe aus dem Gesundheitswesen zu vertreiben. 00:01:07.237 --> 00:01:10.257 Oder man kann es, glaube ich, auch anders formulieren. Sie ist Vorsitzende des Innovationsverbundes 00:01:10.257 --> 00:01:12.702 öffentliche Gesundheit. Hallo und herzlich Willkommen. Hallo. 00:01:13.297 --> 00:01:15.977 Kurze Frage, wie vertreibt man dann Faxe aus seinem Gesundheitssystem? 00:01:15.977 --> 00:01:19.417 Naja, man macht sinnvollen digitalen Kram. 00:01:19.417 --> 00:01:24.417 Achso, und das geht? Ja, dazu kommen wir jetzt wahrscheinlich dann gleich auch. 00:01:24.417 --> 00:01:29.417 Außerdem die beiden CCC-Sprecherinnen, Konz und Khaleesi, hallo und herzlich Willkommen. 00:01:30.112 --> 00:01:36.017 Hallo. Hi. Die man auch noch in ganz vielen anderen Kontexten vorstellen könnte, aber dann wäre wahrscheinlich 00:01:36.017 --> 00:01:38.377 die Sendung auch vorbei, deswegen belassen wir es jetzt einfach dafür. 00:01:38.377 --> 00:01:43.577 Konz guckt ganz, Konz was habe ich vergessen zu sagen? Nein, du hast nichts vergessen. 00:01:43.577 --> 00:01:46.817 Wir haben schließlich hier thematisch zu besprechen, wir müssen uns ja nicht gegenseitig. 00:01:46.817 --> 00:01:48.612 CCC-Sprecherinnen umfasst doch alles. 00:01:48.817 --> 00:01:53.457 Das ist Sache und Fachkunde in digitalen Themen, Öffentlichkeitsarbeit, Lobbyismus, da ist 00:01:53.457 --> 00:01:55.778 doch einfach alles drin. Mehr muss man doch eigentlich gar nicht, oder? 00:01:56.137 --> 00:02:01.137 Ja, wie würde ich dir widersprechen? Also du kannst es sehr gut, aber das ist vielleicht ein… 00:02:01.458 --> 00:02:02.537 Ja, können wir zum Thema kommen? 00:02:02.916 --> 00:02:08.017 Jetzt, schnell! Es ist auch sehr lustig, weil Konz im Vorgespräch, ja es gibt Chaosradios mit Vorgesprächen 00:02:08.017 --> 00:02:11.982 gesagt hat, vielleicht sollten wir offenlegen, dass wir das nicht zum ersten Mal zusammen machen. 00:02:12.497 --> 00:02:14.897 Ich sage, das wird schon gehen, aber das wird eine spannende Situation. 00:02:14.897 --> 00:02:17.897 Jetzt können wir das aber offenlegen. Das hast du noch nicht gesprochen, jetzt müssen wir das auch offenlegen. 00:02:17.897 --> 00:02:19.895 Aber jetzt weiß man auch schon wieder alles, was man dazu wissen muss, oder? 00:02:20.066 --> 00:02:20.897 Ja, das stimmt. 00:02:21.119 --> 00:02:26.691 Es ist also, vor vielen Jahren, liebe KinderInnen, war es einmal ein Chaos-Radio. In dem auch schon. 00:02:26.897 --> 00:02:30.897 Anyways. Es soll heute um Gesundheitsdaten gehen. Wir haben vergessen, den Moderator vorzustellen. 00:02:30.897 --> 00:02:32.840 I'm sorry to interrupt you. 00:02:33.173 --> 00:02:36.897 Wir haben einen Moderator, er heißt Markus Richter und wir schätzen ihn seit Jahren 00:02:36.897 --> 00:02:41.897 hier und heute besonders. Das sagt Konst nur, damit mir jetzt der Schweiß, der Lobschweiß ausbricht und ich nicht mehr 00:02:41.897 --> 00:02:46.137 weiß, was ich sagen soll. Zum Thema aber, Leute, Gesundheitsdaten. 00:02:46.217 --> 00:02:49.697 Wenn man Gesundheitsdaten und Digitales hört. 00:02:50.412 --> 00:02:59.122 Dann könnte man als jemand, der nicht tief in diesem Thema drinsteckt und das sozusagen ganz verfolgt oder auch Arbeit dazu macht, könnte man zwei Dinge davon halten. 00:02:59.298 --> 00:03:04.942 Einerseits Gesundheits-Apps. Da reden wir heute vielleicht am Rande drüber, da geht es aber nicht drum. 00:03:04.942 --> 00:03:10.862 Aber da gibt es die quasi letzte reguläre Chaos-Radio-Folge von vor 3000 Jahren ungefähr. 00:03:10.862 --> 00:03:14.462 Aber das war die letzte Folge. Oh ein Jahr, so alt ist die nicht. Ne, die ist doch wirklich nachher 10 Jahre. 00:03:14.462 --> 00:03:15.313 Die ist ziemlich genau ein Jahr alt. 00:03:15.610 --> 00:03:19.742 Die kann man echt hören. Und ihr meint, man kann die auch noch hören, sozusagen, lässt mittlerweile nichts anderes angeboren. 00:03:19.742 --> 00:03:25.022 Also man kann immer gut Folgen der Zervorschis hören, wenn sie wieder irgendwas kaputt gemacht haben. 00:03:25.701 --> 00:03:33.382 A. Okay, gut. Und das andere, was man vielleicht denken könnte, ist, es geht irgendwie um die elektronische Patientenakte, 00:03:33.382 --> 00:03:38.542 deren Einführung in Deutschland jetzt seit Jahren passiert, habe ich so ein bisschen das Gefühl. 00:03:38.620 --> 00:03:45.434 Es ist es aber beide nicht. Und deswegen wäre meine erste Frage an euch heute so ein bisschen, worüber genau reden wir eigentlich? 00:03:45.866 --> 00:03:52.782 Es hat vier Buchstaben, es heißt E-D-H-S. E-H-D-S. Es ist fantastisch, E-H-D-S. 00:03:52.960 --> 00:03:57.102 Worüber reden wir heute und warum hat es nichts mit den aktuellen Dingen zu tun, die 00:03:57.102 --> 00:03:58.091 in Deutschland gerade passieren? 00:03:58.163 --> 00:04:02.982 Ich glaube wir reden vor allen Dingen über so einen Trend, weswegen wir uns zwei verschiedene 00:04:02.982 --> 00:04:08.342 Beispiele genommen haben. Also die europäische Seite, die wir noch besprechen wollen, aber auch die deutsche Seite. 00:04:08.342 --> 00:04:13.062 Denn wir haben in Deutschland ein Gesetz, das die Gesundheitsdaten zentralisiert. 00:04:13.143 --> 00:04:19.526 Es ist auch längst in Kraft getreten, es wird auch praktisch-technisch umgesetzt, ist aber wenigen Menschen überhaupt bekannt. 00:04:19.822 --> 00:04:26.662 Es ist das digitale Versorgungsgesetz und das damit zusammenhängende Forschungsdatenzentrum. 00:04:26.782 --> 00:04:31.822 A. Warte, da will ich gleich einfach, es gibt ja diese elektronische Patientennacht, wo die Idee dahinter ist, 00:04:31.967 --> 00:04:39.022 unsere Krankenkassenkarte ist quasi auch ein Speicherding oder der Zugriff auf ein Speicherding, wo unsere Gesundheitsdaten drin sind. 00:04:39.331 --> 00:04:44.930 Und geht es jetzt darum, die Daten, die darin sind, zu zentralisieren, oder geht es darum, 00:04:45.262 --> 00:04:48.468 was irgendwo Gesundheitsdaten sind, zu zentralisieren. 00:04:49.215 --> 00:04:56.209 Naja, wir können da glaube ich nochmal drauf kommen, was die Idee dahinter ist. Die ist ja ein bisschen unterschiedlich für die europäische Ebene und für die deutsche. 00:04:56.209 --> 00:04:58.209 Aber erst könntest du meine Frage beantworten. 00:04:58.209 --> 00:05:08.609 Ja, würde ich gerne tun. In Deutschland ist es so, dass es hinter dem Rücken der Patienten passiert, während ja diese Patientenakte direkt mit den Patienten zu tun hat und mit den Arztgängen oder so. 00:05:08.609 --> 00:05:14.980 Und hier ist es so, dass die Krankenkassen die Daten übermitteln, nur die gesetzlichen allerdings, also von mehr als 70 Millionen Menschen. 00:05:15.250 --> 00:05:18.749 So um die 73 Millionen Menschen, die gesetzlich krankenfasiert sind, 00:05:18.749 --> 00:05:26.149 landen diese Daten in einem Prozess hinter den Rücken der Patienten in einem zentralisierten Forschungsdatenzentrum. 00:05:26.149 --> 00:05:31.949 Also das ist jetzt ganz unabhängig davon, was Lauterbach jetzt kürzlich für die Patientenakte vorgeschlagen hat 00:05:31.949 --> 00:05:34.749 und was ja auch schon ein ewig langer Prozess ist bei der Digitalisierung. 00:05:34.749 --> 00:05:42.149 Das ist ein Teilbereich der Digitalisierung im Gesundheitswesen, aber einer, wo letztlich die Leute aktiv nichts damit zu tun haben, 00:05:42.149 --> 00:05:46.349 Denn sie haben keinerlei Rechte in dem Sinne von sie könnten widersprechen oder sie werden 00:05:46.349 --> 00:05:47.349 irgendwie gefragt oder so. 00:05:48.369 --> 00:05:52.869 Aber also heißt platt formuliert ist es so, wir reden über Gesundheitsdaten, die sowieso 00:05:52.869 --> 00:05:56.949 anfallen, die sowieso bei den gesetzlichen Krankenkassen liegen und jetzt geht... 00:05:57.462 --> 00:06:01.012 Herr Lauterbach oder die europäische Politik, werden wir gleich noch erfahren werden wahrscheinlich, 00:06:01.012 --> 00:06:04.375 hin und sagt so, das möchten wir gerne alles an einem Ort speichern. 00:06:04.600 --> 00:06:08.012 Genau, aber hier ist es ein bisschen älter. Ich habe ja schon gesagt, das Gesetz ist in Kraft. 00:06:08.138 --> 00:06:11.073 Das wird schon praktisch getan. Also das verdanken wir Jens Spahn von der CDU. 00:06:11.217 --> 00:06:17.512 Danke, danke Jens. Nee, CDU, also der berühmte Kompetenzminister. 00:06:17.762 --> 00:06:20.912 Und wir haben ja sozusagen jetzt hier schon mit den Auswirkungen zu kämpfen, 00:06:20.912 --> 00:06:23.512 während das europäische Projekt, auf das wir ja noch kommen wollen, 00:06:23.512 --> 00:06:26.712 in der Mache ist und auch gerade im politischen Streit. 00:06:26.712 --> 00:06:34.112 Also da können wir ja nochmal drauf kommen, an welcher Stelle in Europa in diesem Politikprozess gerade ist. 00:06:34.112 --> 00:06:46.232 Aber der Trend ist derselbe. Nämlich Daten zusammenzuholen zentral und aus so ein bisschen den Forderungen, vor allen Dingen aus dem Bereich der medizinischen Forschung, aber auch der Gesundheitsberichterstattung, 00:06:46.232 --> 00:06:53.708 diesen Forderungen nachzukommen, dass die alle Zukunft zu diesen Daten wollen. Das ist ein Zeitgeistphänomen, was sicherlich auch mit der Pandemie zusammenhängt. 00:06:53.753 --> 00:07:06.112 Ja, das wollen wir noch genau auseinandernehmen, aber vielleicht können wir gleich die europäische Ebene da dran hängen. Also in Deutschland ist es so, es gibt die Daten, es gibt sie bei den Kassen und es gibt schon ein Gesetz, was sagt, diese Daten, die wollen wir alle irgendwie sammeln. Wie genau, können wir gleich noch klären. 00:07:06.212 --> 00:07:18.815 Was ist denn auf der europäischen Ebene gedacht? Ist es da, liebe Länder, macht das alle so, wie Deutschland das macht? Oder ist es sozusagen, wir wollen für die EU eine zentrale Datensammlung? Oder was wird da geplant? 00:07:19.247 --> 00:07:27.432 Also im Prinzip ist der europäische Gesundheitsdatenraum der Versuch, auf europäischer Ebene einen gemeinsamen Datenraum zu schaffen. Datenraum klingt mir so spannend. 00:07:27.432 --> 00:07:29.432 Das klingt total science fiction-hessig. 00:07:29.432 --> 00:07:42.632 Eigentlich will man in ganz Europa die Möglichkeit haben, einerseits für die sogenannte Primärnutzung, das heißt einerseits, du möchtest irgendwie ein elektronisches Rezept irgendwie in Spanien ausgehändigt bekommen und möchtest es in Deutschland einlösen. 00:07:42.632 --> 00:07:47.972 Das ist die eine Ebene, aber es gibt halt auch die Sekundärnutzung, also das Thema, das du sagen könntest, 00:07:48.072 --> 00:07:53.231 alle europäischen Forschungsanliegen sollen jetzt auch Zugriff haben auf alle europäischen Daten. 00:07:53.812 --> 00:07:57.332 Die dann durch Interoperabilität und Standards auch die Möglichkeit bieten zu sagen, 00:07:57.332 --> 00:08:04.042 okay, ich möchte jetzt irgendwie alle zum Thema von irgendwelchen seltenen Krankheiten in ganz Europa forschen, 00:08:04.312 --> 00:08:11.649 nicht nur in zum Beispiel Deutschland, weil man kann ja ganz Europa als einen Wirtschaftsdaten Single Digital Market sehen, 00:08:12.045 --> 00:08:22.020 der eben so groß ist, dass er lukrativ genug ist für europäische Unternehmen gegen amerikanische Datenräume und sonstige Dinge, auch groß genug und interessant zu sein. 00:08:23.091 --> 00:08:32.057 Also es gibt zwei Nutzungsszenarien oder vielleicht kann man es richtig gucken sozusagen. Was ist denn das Narrativ? Das klingt so ein bisschen Fortschritt durch Digitalisierung. Einerseits für die Partei. 00:08:32.392 --> 00:08:38.278 Es ist nicht Fortschritt durch Digitalisierung, sondern das Lieblingsnarrativ ist ja Heilung durch Digitalisierung. 00:08:39.043 --> 00:08:49.032 Ah, okay. Da sind schon mehrere Ebenen. Wir bleiben gesund und werden schneller gesund, wenn wir krank sind, weil unsere Daten digital 00:08:49.032 --> 00:08:51.934 gespeichert werden. Genau. jetzt mal aus. 00:08:53.051 --> 00:08:56.211 Ich weiß nicht, VerbraucherInnenperspektive, aber sozusagen aus der Perspektive 00:08:56.526 --> 00:08:58.801 des einzelnen Menschen, der vielleicht krank wird und so weiter und so fort, 00:08:58.911 --> 00:09:00.601 klingt das ja erstmal ganz plausibel. 00:09:00.766 --> 00:09:04.901 Nämlich das eine Ding ist eben sozusagen, Dinge, die ich machen muss, werden einfacher. 00:09:04.901 --> 00:09:10.164 Also halt Rezepte einlösen, gerade das Beispiel, oder vielleicht auch Arztbesuche international. 00:09:10.614 --> 00:09:15.501 Ich erinnere mich sehr gerne, wie ich mal in Spanien beim Zahnarzt war und dann musste ich hier wieder erklären und so weiter und so fort. 00:09:15.501 --> 00:09:21.101 Also das klingt erstmal ganz gut und auch dieses andere, also es gibt medizinische Daten und aus den medizinischen Daten 00:09:21.101 --> 00:09:28.961 Da kann man vielleicht auch wieder was forschen. Das klingt erstmal gut. Und ich bin mir sicher, wir kommen im Verlauf der nächsten Stunde noch dazu, warum Dinge kaputt sind und so weiter und so fort. 00:09:29.168 --> 00:09:38.881 Aber sind das erstmal als Ziele, wo ihr sagt, okay, das kann man schon verfolgen wollen oder ist das schon eine Stelle, wo ihr sagt, nein? 00:09:39.277 --> 00:09:48.041 Ich glaube, einen Aspekt haben wir gerade noch. Also Bianca hat ja gerade gesagt, irgendwie Wirtschaftsraum, Datenraum. Wir kommen gegen die amerikanischen Wirtschaftsräume ein. 00:09:48.253 --> 00:09:54.161 Ein Aspekt dieser Zentralisierung ist natürlich auch, dass da auch Wirtschaftsinteressen dahinter stecken. 00:09:54.161 --> 00:10:01.961 Also wir haben ja nicht nur, keine Ahnung, die Forschungsinstitute, die Interesse daran haben, dass es irgendwelche Schnittstellen gibt, 00:10:01.961 --> 00:10:08.921 an denen sie Daten bekommen können, um ihre Forschung voranzutreiben, sondern die ersten, die natürlich dann auch auf der Matte stehen, 00:10:09.156 --> 00:10:13.270 sind natürlich irgendwie Google, Amazon, alle großen Tech-Unternehmen, 00:10:13.756 --> 00:10:18.521 die das auch nutzen wollen, um ihre Applikationen entsprechend zu trainieren. 00:10:18.707 --> 00:10:19.112 Warte mal, stopp. 00:10:19.986 --> 00:10:25.981 Also, was du sagst, normalerweise hätte ich gedacht, das kommt an der Stelle, wo wir über die Gefahren 00:10:26.041 --> 00:10:27.926 von solcher Datenzentralisierung sprechen. 00:10:28.261 --> 00:10:35.161 Deswegen muss ich jetzt noch mal explizit fragen. Es ist also, diese Idee wird gerade, also in Deutschland gibt es das schon, 00:10:35.221 --> 00:10:43.001 in Europa wird es gerade sozusagen angedacht gerade auf dem Weg. Und da ist einer von drei Punkten der Politik, dass da gesagt wird, 00:10:43.001 --> 00:10:48.961 wir wollen auch, dass Unternehmen, die erst mal nicht offensichtlich was mit Medizin zu 00:10:48.961 --> 00:10:51.121 tun haben, Zugriff auf diese Daten haben? 00:10:52.412 --> 00:10:58.001 A. Indirekt schon. Also im Prinzip ist der europäische Gesundheitsdatenraum tatsächlich 00:10:58.001 --> 00:11:02.081 nur einer von vielen Datenräumen. Es gibt Datenräume im Bereich Verkehr, es gibt Datenräume 00:11:02.081 --> 00:11:07.241 im Bereich Handel oder sonstige Dinge. Man macht jetzt quasi an dem europäischen Gesundheitsdatenraum 00:11:07.241 --> 00:11:11.965 ein Beispiel, wie könnte denn das im Digitalen gestaltet werden, dass es einerseits für 00:11:12.041 --> 00:11:15.041 die Bürgerinnen gut ist, aber auch für die Wirtschaft und sonstige Dinge. 00:11:15.041 --> 00:11:18.321 Und man nimmt quasi auch den Datenrahmen zuerst, weil er der komplizierteste ist, also allein 00:11:18.321 --> 00:11:22.641 von dem Inhalt der Daten, weil man dann denkt, dass man halt das Prinzip schon einmal gut 00:11:22.641 --> 00:11:25.414 durchexerziert hat und sagen kann, okay, jetzt kriegen wir Verkehrsdaten auch noch hin. 00:11:26.530 --> 00:11:31.266 Und ich glaube, es ist einfach auch eine gewisse Realität, die wir jetzt vielleicht nicht angesprochen haben, aber, 00:11:31.752 --> 00:11:35.362 das, was mit Medizin und Gesundheit zu tun hat, ist ein Markt. 00:11:35.983 --> 00:11:43.446 Nicht nur im Sinne der Daten, also wenn man jetzt an die großen Datenkonzerne denkt, sondern das ist natürlich ein Hintergedanke, den man immer haben muss, den, glaube ich, auch alle wissen. 00:11:43.653 --> 00:11:47.848 Heilung und so, das klingt immer gut, aber in Wahrheit ist es natürlich ein Markt. 00:11:48.280 --> 00:11:51.728 Also ja, was mich gerade so ein bisschen irritiert ist Folgendes. 00:11:52.241 --> 00:12:00.080 Gesundheitsdaten sind ja so, also Datenschutz ist ja immer ein großes Thema und dann sagt man Gesundheitsdaten ist, ich finde diese Unterscheidung schwierig, aber es sind besonders schützenswerte Daten. 00:12:00.433 --> 00:12:11.080 Und ich hätte jetzt gedacht, okay, wenn man politisch vertreten will, dass man diese Daten, die ja besonders sensibel also sein könnten, an einer Stelle sammelt, dann macht man das, indem man sagt, die sollen natürlich nur für ganz bestimmte Zwecke benutzt werden. 00:12:11.080 --> 00:12:19.980 Es werden nämlich Forschung, Abrechnungswesen und halt Pharma-Industrie, also schon sozusagen 00:12:19.980 --> 00:12:23.600 Wirtschaft, aber im Sinne von, ist ganz konkret in diesem Bereich. 00:12:23.812 --> 00:12:26.880 Ich wäre jetzt nicht auf die Idee gekommen, dass man als allererstes sagt, und dann machen 00:12:26.880 --> 00:12:31.640 wir das auch noch für die Unternehmen auf, von denen wir als EU-Politikerinnen immer 00:12:31.640 --> 00:12:35.880 sagen, wir brauchen mehr digitale Souveränität vor den großen amerikanischen Konzernen. 00:12:35.880 --> 00:12:38.040 Aber das ist in dem grundlegenden Konzept mit drin? 00:12:38.765 --> 00:12:49.711 Also ich glaube, man kann sich das wirklich vorstellen, wie das einfach das, also es gibt ja jetzt, ist auch unter dem DSA, also Digital Services Act, dieses Schnittstellengesetz von Social Media Plattformen. 00:12:49.792 --> 00:13:07.700 Und man kann sich auch wirklich das EHDS vorstellen, wie eine riesengroße Schnittstelle, die sie bauen, wo sich dann jeder, der, weil das, also der bestimmte Bedingungen erfüllt, einfach andocken kann und die Daten absaugen kann und das dann für seine Zwecke benutzen kann. 00:13:07.700 --> 00:13:10.220 Okay, dann möchte ich die Frage, die ich eigentlich gerade stellen wollte, nochmal 00:13:10.220 --> 00:13:14.220 präzisieren. Es gibt also sozusagen drei Ziele für den EHDS. 00:13:14.513 --> 00:13:18.740 Das ist wahrscheinlich eine der Sachen, die ich in dieser Folge nicht mehr lernen werde. 00:13:18.740 --> 00:13:22.460 Also für die EHDS gibt es also drei Ziele, nämlich den Primär und Sekundär und dann 00:13:22.460 --> 00:13:26.500 sozusagen die Schnittstelle zur Freim… Das ist ja die Sekundäre. 00:13:27.080 --> 00:13:32.193 Das wirft man einfach komplett alles in einem Korb. Okay, dann nochmal von Anfang an. 00:13:32.238 --> 00:13:38.860 Haltet es für ein verfolgenswertes Ziel, diese Primärnutzung, also für PatientInnen quasi, 00:13:38.860 --> 00:13:42.620 dass man das europäisch zentralisiert, also die Digitalisierung zentralisiert, 00:13:42.620 --> 00:13:45.796 haltet es erstmal für ein Ziel, das man überhaupt verfolgen sollte? 00:13:46.120 --> 00:13:50.780 Ist das was, wo man sagen kann, okay, beim EHDS müssen wir vielleicht über das Wie reden, 00:13:50.780 --> 00:13:54.501 aber im Grunde genommen ist zu sagen, wir schaffen was, wo man in Europa, 00:13:54.636 --> 00:13:59.002 wo Gesundheitsdaten einfacher verarbeitet werden können, das ist ein Ziel, das kann man erstmal haben. 00:13:59.830 --> 00:14:14.680 Vielleicht zur Erklärung. Es gibt ja manche Themen im Digitalen, da sagt halt sozusagen der Club oder die Netzaktivistin der bestimmten Ausrichtung, die dem Datenschutz sozusagen zugewandt ist, sage ich es mal ganz subtil, wo sie sagen, das ist totaler Quatsch. 00:14:14.680 --> 00:14:21.680 Also alles, was mit Vorratsspeicherung zu tun hat oder irgendwie Verschlüsselung aufmachen und kontrollieren, Chatkontrolle hatten wir in der Sendung, wo Khaleesi auch da war. 00:14:21.841 --> 00:14:25.802 Da gibt es ja so ein ganz ganz prinzipielles so nein. 00:14:26.261 --> 00:14:30.320 Einfach nein. So egal wie das ansteht, nein. Das ist meine Frage hier, glaube ich. 00:14:30.465 --> 00:14:34.160 Gibt es bei diesen Zielen, die ihr gerade skizziert habt, gibt es dann kategorisches 00:14:34.160 --> 00:14:37.440 nein oder sagt ihr, das kann man schon machen, man muss aber gucken wie? 00:14:38.027 --> 00:14:40.080 BG'IN DR. Ich glaube nicht, dass man die Frage so stellen kann. 00:14:40.080 --> 00:14:43.640 Ich muss sie so zurückweisen, denn es gibt hier nicht, es ist einfach nicht richtig, 00:14:43.640 --> 00:14:50.160 die so zu stellen. Es gibt kein schwarz und weiß. Dann wir haben konkrete Vorschläge, wir haben konkrete Gesetze und du kannst sagen. 00:14:50.160 --> 00:14:52.178 Das ist aber das, was ich gerade versucht habe zu fragen. 00:14:52.320 --> 00:14:54.312 Es gibt nämlich bei manchen Stellen schwarz und weiß. 00:14:54.600 --> 00:14:56.274 Und das war meine Frage. Es gibt es hier also nicht. 00:14:56.508 --> 00:15:00.440 Ich glaube nicht, dass es die in den meisten dieser digitalen Polit-Themen gibt, dass es 00:15:00.440 --> 00:15:04.800 wirklich so schwarz und weiß ist, sondern du musst dir die Ausgestaltung schlicht ansehen. 00:15:04.800 --> 00:15:08.160 Und dann musst du sagen, hey, findest du das noch akzeptabel? 00:15:08.160 --> 00:15:11.840 Inwieweit müssen die Datengeber beteiligt werden oder nicht? 00:15:11.840 --> 00:15:15.200 Inwieweit darf das kommerzialisiert werden? Ich finde es nicht zu spitzbar. 00:15:15.200 --> 00:15:16.952 Ich weiß nicht, ob wir da auf der selben Ebene sind. 00:15:17.080 --> 00:15:25.300 Weil wenn ich das jetzt umdrehe, wie ich es gefragt habe, dann sagst du gerade, also Vorratsdatenspeicherung und Staatsrohianer und Verschlüssungsaufbrechung sind denkbar, wenn man die Umsetzung gut genug macht. 00:15:25.300 --> 00:15:27.020 Jetzt hast du die Extrembeispiele genommen. 00:15:27.020 --> 00:15:30.720 Ja klar, genau. Das ist die Frage. Ist das so ein Extrembeispiel oder nicht? 00:15:30.720 --> 00:15:32.508 Darf ich euch kurz unterbrechen? Ja bitte. 00:15:32.720 --> 00:15:40.920 Danke. Also ich glaube, wir hatten das Thema auch schon mal, als wir über Registermodernisierung gesprochen haben, ganz, ganz anderer Tanzbereich. 00:15:40.920 --> 00:15:46.020 Ja, aber Bianca hat es damals sehr schön gesagt und ich hatte es jetzt irgendwie auch als Beispiel eingeführt. 00:15:46.020 --> 00:16:16.020 Es ist ja grundsätzlich, was du auch gesagt hast, in Spanien zum Zahnarzt zu gehen und dann wieder nach Deutschland zu kommen und dann das ganze Theater zu haben, was man dann halt so hat, ist natürlich super painfull und es ist uns glaube ich allen klar, dass es total wünschenswert wäre, wenn das. 00:16:03.593 --> 00:16:09.883 Einfacher möglich wäre. So. Das kann man als Aussage grundsätzlich erstmal so hinstellen. 00:16:09.985 --> 00:16:14.774 Wie wir das bewerkstelligen, ist eine völlig andere Frage und auch das größere Problem. 00:16:14.972 --> 00:16:18.483 Okay, aber meine Frage war genau sozusagen, ist es so oder ist es vielleicht anders? 00:16:18.591 --> 00:16:24.283 Wie ist es bei dem, wir wollen die Daten zentralisieren und zur Forschung zur Verfügung stellen? 00:16:24.283 --> 00:16:27.980 Ist das auch was, wo ihr sagt, das kann man als Ziel verfolgen, wir müssen nur genau gucken, wie man es macht? 00:16:28.800 --> 00:16:31.329 Zentralisieren heißt letztlich in diesem Fall vervielfachen. 00:16:31.680 --> 00:16:39.363 Denn man holt die zusammen und bringt die in eine zentrale Stelle. Und da ist, glaube ich, der Konsens wesentlich geringer. 00:16:39.593 --> 00:16:48.263 Denn das bringt mehr Nachteile als Vorteile. Man muss natürlich abwägen und ich glaube, die meisten Leute teilen irgendwie so Interesse von Forschenden 00:16:48.263 --> 00:16:54.963 oder können verstehen, warum die einen möglichst großen Datenblob wollen. Aber die Zentralisierung birgt inhärente Risiken. 00:16:54.963 --> 00:17:03.203 Und die sind vor allen Dingen mit der IT-Sicherheit verbunden und mit der Auflösung von Pseudonymen, das ist ja in der Regel ein Pseudonym, wie seht ihr Daten. 00:17:03.203 --> 00:17:07.239 Und da hört es bei mir schon auf mit dem Konsens. Zumindest wenn man die Leute nicht fragt. 00:17:07.806 --> 00:17:15.431 Denn es sind nun mal anders als andere Datenräume, die wir jetzt so ein bisschen beispielhaft hatten, sind ja nicht umsonst besonders sensible Daten. 00:17:15.485 --> 00:17:22.763 Da geht es ja eben oft um schwerwiegende Krankheiten, da geht es um Stigmata, die sich damit verbinden. 00:17:23.038 --> 00:17:27.800 Da ist meine Kompromissbereitschaft geringer als offenbar der Zeitgeist derzeit. 00:17:28.107 --> 00:17:40.763 Also wir leben ja in so einer Welt, die glaube ich von dieser Pandemie geprägt ist und ich glaube die Befürwortung davon, dass man auch an echt großen Patientendaten forschen soll, ist größer geworden dadurch. 00:17:40.763 --> 00:17:46.534 Einfach weil die Pandemie gezeigt hat, wie schlecht es im digitalen Gesundheitswesen aussieht. 00:17:46.683 --> 00:18:02.072 Aber ich finde das überschießend zu sagen, okay, wir machen jetzt mal die fetten Datenbanken und wir fragen die Leute nicht mal, ob sie damit einverstanden sind, sogar wenn sie vielleicht seltene Krankheiten haben oder seltene Krankheitsverläufe und so. Da finde ich kurz bei mir mit dem Konzept auf. 00:18:02.225 --> 00:18:05.718 Kann ich euch beide, Khaleesi, siehst du es genauso? 00:18:06.942 --> 00:18:23.930 Also ja, ich sehe es tatsächlich genauso und ich glaube, wir haben halt auch in der Pandemie sehr prominente Beispiele dafür bekommen, wenn es um Tracing-Apps ging, dass zentralisierte Datensammlungen immer ziemlich fatal werden können, ziemlich schnell. 00:18:24.506 --> 00:18:33.556 Also ich glaube, wir diskutieren immer sehr stark, auf wie weit man das noch in eigener Kontrolle behalten möchte. 00:18:33.556 --> 00:18:39.630 Und das sehe ich bei diesem Ursprungskonzept vom EADS auf jeden Fall nicht, weil das war dann irgendwie so, wir haben einerseits den primären Nutzungszweck, 00:18:40.089 --> 00:18:44.977 da hast du noch keine Kontrolle darüber, ob du den Säkulären nutzt und hast du gar keine, so war es zumindest ursprünglich mal angenacht. 00:18:45.076 --> 00:18:51.836 Und ich glaube, da ist halt dieses, was Konstanze auch schon sagte, dieses drüber hinausschießen. 00:18:51.836 --> 00:18:59.516 Also man hat erstmal keine Digitalisierung, man möchte dann plötzlich alles auf einmal mit Big Data und KI und sonstigen was und hat dann auch immer so eine Narrative, 00:18:59.606 --> 00:19:04.676 wenn ich nicht sofort alles gleich bekomme, dann passiert irgendwas mit Menschen müssen sterben und sonstige Dinge. 00:19:04.676 --> 00:19:17.436 Also die Narrative gibt es tatsächlich. Also ist mir tatsächlich mal passiert, dass ich auf einem Panel war und dann wurde ich von einem ehemaligen Gematik-Geschäftsführer beschimpft im Sinne von wegen euch sterben Menschen, weil ihr IT-Sicherheit macht. 00:19:17.436 --> 00:19:38.916 Also, da sind die Narrative sehr überzogen, weil man jetzt, glaube ich, das Gefühl hat, man kann jetzt aus dem Impetus der Pandemie sehr, sehr weite Möglichkeiten sich einfordern, weil man eben die Leute das Gefühl haben, ja, okay, ohne Digitalisierung haben wir diese Pandemie gehabt, mit Digitalisierung hätten wir das nicht mehr, deswegen holen wir jetzt alles, was geht. 00:19:38.916 --> 00:19:44.815 Und das ist auch exakt die Argumentation, die in dem Gerichtsverfahren, was ich persönlich. 00:19:44.950 --> 00:19:51.236 Aber auch noch eine andere Person gegen die deutsche Gesetzgebung führe aktuell, immer vorgebracht wird. 00:19:51.236 --> 00:19:55.236 Also die, die etwa, natürlich eine Menge Gutachten, die da abgegeben werden, da kommst 00:19:55.236 --> 00:20:00.156 du am Ende immer zu einer Zuspitzung, dass dann die Forscher oder Unternehmen, die in 00:20:00.156 --> 00:20:05.436 diesem Bereich tätig sind, sagen, also wenn wir hier Kompromisse machen in Bezug auf die 00:20:05.436 --> 00:20:08.956 Die IT-Sicherheit oder den Datenschutz kostet quasi Menschenleben. 00:20:08.956 --> 00:20:13.236 Also diese Zuspritzung ist immer als Argument drin und die erinnert mich natürlich an viele 00:20:13.236 --> 00:20:14.596 andere Debatten in der Digitalisierung. 00:20:14.596 --> 00:20:17.116 Genau und ich glaube, das ist auch wieder so ein interessanter Punkt. 00:20:17.116 --> 00:20:22.076 Das ist ein, also ich sag mal, Digitalisierung des Gesundheitswesens und Lösung der Probleme, 00:20:22.076 --> 00:20:28.036 die wir im Gesundheitswesen haben, ist ein, wie immer, ein sehr komplexes und auch gesellschaftlich komplexes Problem. 00:20:28.036 --> 00:20:39.556 Und wir werden auch hier nicht mit, also in Anführungsstrichen, einfachen technischen Lösungen dafür sorgen, dass wir diese Problematik auflösen. 00:20:39.556 --> 00:20:51.711 Also es ist ein Trend wirklich, also ich glaube der ist schon immer da, aber jetzt ist er besonders stark geworden, dass die Politik diesem Irrglauben folgt, 00:20:51.909 --> 00:20:59.976 zu sagen, okay, ich hab ja dieses total komplexe Problem und es ist irgendwie, der Leidensdruck ist so hoch, das zu lösen, dass wir das jetzt unbedingt angehen müssen. 00:21:00.209 --> 00:21:04.665 Und hier ist technologische Innovation und jetzt ist das Problem gelöst. 00:21:04.776 --> 00:21:14.397 Okay, ich versuch mal zu sagen, bis zu der Stelle so einfach wirklich zusammenfasst und das ist, im Prinzip sagt ihr, also sagt ihr auch, nee, warte, stopp, nochmal zurück. 00:21:14.730 --> 00:21:20.473 Also es gab eine Pandemie, daran hat man gesehen, sozusagen... 00:21:21.787 --> 00:21:28.157 Wie in so vielen anderen Bereichen fällt mir auf, gerade auch sozusagen, es gibt sagen wir mal Nachholbedarf in was Gesundheitswesen und Digitalisierung. 00:21:28.368 --> 00:21:36.237 Da müsste man mal was machen. Das ist also noch so Konsens. Ihr nickt alle sozusagen, könnt die Hörerinnen nicht sehen. Also Digitalisierung ja, 00:21:36.479 --> 00:21:41.917 aber das was mit der Zentralisierung von Gesundheitsdaten gerade angedacht wird, das ist sozusagen 00:21:42.124 --> 00:21:48.011 aufs andere Ende der Wippe gehen und dann in den Abgrund fallen, weil das ist ein bisschen viel sozusagen. Da gäbe es vielleicht nochmal Zwischenschritte. 00:21:48.191 --> 00:21:55.117 Okay, es war schon angesprochen, es gibt da über die Art und Weise, wie diese Daten vorgehalten 00:21:55.117 --> 00:21:59.917 und gesichert werden, gibt es Bedingungen, das würde ich gleich machen, aber vorher 00:21:59.917 --> 00:22:02.837 nochmal erklären, den Unterschied zwischen Europa und Deutschland ein bisschen genauer. 00:22:02.955 --> 00:22:05.317 Das dachte ich schon, Deutschland haben wir schon komplett verstanden, weil es gibt schon 00:22:05.317 --> 00:22:09.757 ein Gesetz, wissen wir schon wie es ist, aber ich führe ein Gerichtsverfahren, das ist 00:22:09.757 --> 00:22:11.877 natürlich ein sehr interessanter Satz in einer solchen Sendung. 00:22:11.877 --> 00:22:14.437 Kannst du mal genau erklären, was für ein Gerichtsverfahren du führst? 00:22:15.063 --> 00:22:21.037 Also das eine ist, das Gesetz ist in Deutschland nicht sehr bekannt. Das Digitale Versorgungsgesetz. 00:22:21.037 --> 00:22:29.037 Einfach schlicht, weil es die Menschen ja nicht wirklich betrifft. Denn die Daten, die von den gesetzlichen Krankenversicherungen in ein Forschungsdatenzentrum fließen, über mehrere Schritte, 00:22:29.037 --> 00:22:33.837 die haben ja eigentlich mit den Menschen nichts zu tun. Das läuft ja sozusagen unterm Radar. 00:22:33.837 --> 00:22:37.677 Und das ist auch damals, als das beschlossen wurde, nicht sehr doll berichtet worden. 00:22:38.001 --> 00:22:46.237 Und mich stört auch als Klägerin dagegen natürlich eine Tatsache besonders, nämlich 00:22:46.526 --> 00:22:49.317 dass die Patienten nicht gefragt werden, die gesetzlich Versicherten. 00:22:49.317 --> 00:22:55.917 Und das betrifft auch den anderen Kläger, der hat eine sehr stigmatisierende Krankheit 00:22:55.917 --> 00:22:59.437 und bleibt deswegen auch anonym und hat auch einen anderen Gerichtsstand. 00:22:59.437 --> 00:23:03.357 Also ich führe das Verfahren in Berlin, vom Sozialgericht und er ist in Frankfurt am Main. 00:23:03.357 --> 00:23:05.357 Was genau beklagst du? 00:23:07.231 --> 00:23:19.861 Okay, das hat natürlich mehrere Ebenen. Das eine ist, es gibt keine Form von Widerspruchsmöglichkeit und die haben wir versucht zu erkämpfen und haben wir auch schon in einem Vorverfahren des eigentlichen Verfahrens gewonnen. 00:23:19.861 --> 00:23:30.201 Das heißt, meine eigenen Daten, meine als einzige von 73 Millionen gesetzlich Versicherten, werden nicht in dieses Forschungsdatacentrum übermittelt, aber das ist natürlich nur ein Zwischenschritt. 00:23:30.201 --> 00:23:34.201 Denn eigentlich streben wir an europarechtliche Fragen. 00:23:34.481 --> 00:23:41.944 Also tatsächliche Fragen, die mit der... Du bist vor Gericht und hast gesagt, ich klage dagegen, dass meine Daten verarbeitet werden, ohne dass ich gefragt werde. Das war die Klage. 00:23:42.201 --> 00:23:46.949 Ja, ja. Aber natürlich greift das im Grunde das Gesetz an und die Art, wie diese Daten übertragen werden. 00:23:47.201 --> 00:23:53.201 Aber da hat auch noch eine große Komponente, die sich auch im Gerichtsverfahren dann so ergeben hat, ist natürlich die IT-Sicherheit geworden. 00:23:53.201 --> 00:23:58.201 Und die Frage, reicht die Pseudonymisierung, die Sie da vornehmen, die ist halt mehrstufig. 00:23:58.201 --> 00:23:59.948 Sie haben überhaupt eine. 00:24:00.201 --> 00:24:03.801 Okay, würde ich nachher noch sozusagen genau auseinander nehmen wollen. 00:24:03.801 --> 00:24:08.401 Können wir gerne. Ist ein bisschen komplex so zu verstehen, aber wenn man es einmal durchblickt hat, ist es gar nicht so schwer. 00:24:08.401 --> 00:24:17.481 Aber sie haben eine und man kann glaube ich mit guten Gründen und das ist halt auch meine Expertise darlegen, warum eine Pseudonymisierung von Gesundheitsdaten, 00:24:17.481 --> 00:24:26.784 die auch sehr, ich würde mal sagen, vor allem über mehrere Jahre, aber die auch sehr präzise sein können und vielschichtig, warum man eine Pseudonymisierung so schwer machen kann. 00:24:27.090 --> 00:24:30.070 Weil man nämlich durch den Zugriff auf andere Daten halten... Stopp! 00:24:30.988 --> 00:24:33.601 Machen wir noch. Machen wir noch. Ich wollte erst mal nur wissen, Stand in Deutschland. 00:24:33.601 --> 00:24:37.281 Stand in Deutschland, es gibt ein Gesetz und es gibt zwei Menschen, die dagegen klagen 00:24:37.434 --> 00:24:38.281 und es sieht nicht so schlecht aus. 00:24:38.281 --> 00:24:42.001 Es ist aber eine strategische Prozessführung, denn beides Mal sind wir unterstützt von 00:24:42.001 --> 00:24:47.241 der Gesellschaft für Freiheitsrechte und deswegen ist der Fokus auch, das durchaus 00:24:47.241 --> 00:24:48.521 europarechtlich aufzuhängen. 00:24:49.542 --> 00:24:52.401 Da kommen wir jetzt zu. Was ist der Stand in Europa? Ist dieses EHDS... 00:24:52.401 --> 00:24:56.281 Ne, ne, europarechtlich heißt nur, Regeln, die in Europa gelten. 00:24:56.281 --> 00:25:01.263 Mit dem EHDS erstmal konkret nichts zu tun. Wenn wir aber gewinnen, haben sie was damit zu tun. 00:25:01.497 --> 00:25:09.981 Genau, ich wollte gerade sagen, das ist nämlich ein Trick, wenn man nämlich jetzt so einen Präzedenzfall sozusagen hat und der auch europarechtlich festgehalten wird. 00:25:09.981 --> 00:25:12.261 Zum Beispiel beim EuGH, dann. 00:25:12.840 --> 00:25:20.490 Ist es nicht so, dass wir jetzt bei dem EHDS hingehen könnten und sagen können, es gibt aber eine gültige europäische Rechtsprechung, die sagt, dass ihr das so nicht machen könnt? 00:25:20.490 --> 00:25:25.490 Also ihr klagt gegen ein Gesetz in Deutschland und weil wir in der EU sind, landet das im Zweifel vor einem europäischen Gericht. 00:25:25.490 --> 00:25:29.728 Wenn das europäische Gericht sagt, dieser Fall in Deutschland wird so und so entschieden, dann hat das auch Auswirkungen auf... 00:25:29.809 --> 00:25:34.650 So leicht ist es nicht. Du brauchst natürlich von einem Richter in Deutschland eine Vorlage. 00:25:34.650 --> 00:25:42.268 Das heißt, ein Richter in Deutschland muss sagen, okay, in dieser Klage sind so viele schwerwiegende europarechtliche Fragen, dass ich sie dem Europäischen Gerichtshof vorlege. 00:25:42.350 --> 00:25:47.050 Das ist unser Ziel. Das ist auch nicht geheim oder so, das steht in der Klage auch so drin. 00:25:47.147 --> 00:25:55.250 Und wie es jetzt aussieht, es gab auch schon zwei mündliche Verhandlungen, ist der Richter am Sozialgericht durchaus aufgeschlossen, das auch so zu tun. 00:25:55.330 --> 00:26:02.350 Aber in dem Berliner Fall ruht das Verfahren derzeit, weil die schlicht, die haben einfach technische Probleme. 00:26:02.350 --> 00:26:06.350 Die sollen eigentlich seit letztem Oktober die Daten kriegen und dann ja auch darüber 00:26:06.350 --> 00:26:10.430 entscheiden, wer und in welcher Form die nutzen darf. Also deine Daten? 00:26:10.967 --> 00:26:14.748 Auch meine, aber die von 73 Millionen. Das Gericht soll die Daten kriegen? 00:26:15.054 --> 00:26:16.750 Nein, nein, nein, das Forschungsdatenzentrum. 00:26:17.008 --> 00:26:25.350 Achso, also ihr klagt gegen die Datenübertragung und die hat aber sozusagen noch nicht auf 00:26:25.350 --> 00:26:27.729 eine Art und Weise stattgefunden, dass man die nachvollzieht? 00:26:27.819 --> 00:26:31.230 Die sitzen schon auf den Daten zu einem großen Teil, aber sie haben es noch nicht technisch 00:26:31.230 --> 00:26:38.750 hinbekommen sozusagen die Nutzungsberechtigten auch mit ja diese Daten auch rüberzureichen. 00:26:38.750 --> 00:26:42.350 Also das ist also noch in einem Stadium technisch, wo sie es nicht hinkriegen, jetzt schon viele 00:26:42.350 --> 00:26:47.670 Monate. Und da hat der Richter gesagt, was haben wir denn da eigentlich wirklich zu entscheiden? 00:26:47.670 --> 00:26:51.748 Da fehlt so ein bisschen die Substanz. Und deswegen ein gutes Verfahren in Berlin. 00:26:52.054 --> 00:26:52.405 A. 00:26:52.990 --> 00:26:54.990 Okay, gut. Jetzt aber zum IHDS. 00:26:55.591 --> 00:27:04.648 Was genau ist da der Stand in Europa? Gibt es da eine Gesetzgebungsinitiative? Gibt es eine Kommission, die sagt, lasst uns nochmal drüber nachdenken. Könnt ihr da genauer mal sagen, was passiert da gerade? 00:27:04.909 --> 00:27:10.601 Also vielleicht erstmal nochmal mein Lieblingsthema EU Gesetzgebungsprozesse für Anfänger. 00:27:10.601 --> 00:27:13.081 Sehr gerne. Vielleicht sollten wir dazu mal eine eigene Folge geben. 00:27:13.081 --> 00:27:16.881 Nein, nein, nein, nein. Das machen wir als nächstes auf Chaos Radio. 00:27:16.881 --> 00:27:33.081 Das ist in Arbeit. Aber einmal ganz kurz, also EU-Gesetzgebung, die EU-Kommission hat Vorschlagsrecht und dann geht das an den Rat und an das Parlament. 00:27:33.347 --> 00:27:37.281 Und das Interessante beim IHDS, deswegen ist das auch sehr untergegangen. 00:27:37.281 --> 00:27:55.510 Stopp, weil ich selber immer durcheinander komme, muss ich immer fragen, ich weiß, der Vergleich hinkt, aber die Kommission ist sowas wie die Bundesregierung, der EU-Rat ist sowas wie der Bundesrat, also im Sinne von in der Kommission sitzen die EU-Minister, im Rat sitzen die, nein? Dann musst du nochmal erklären, weil ich verwechsel das jedes Mal. 00:27:55.573 --> 00:27:59.039 Wollen wir vorverweisen? 00:27:59.281 --> 00:28:03.561 Wir werden tatsächlich in der nächsten Folge genau darüber sprechen. 00:28:03.561 --> 00:28:19.561 Also der Rat, da sind sozusagen die Länder drin und die haben auch eine, die Kurzform heißt Perm Raps, die haben eine permanente Repräsentation der Länder in Brüssel, die solche Dinge verhandeln. 00:28:19.561 --> 00:28:25.686 Und dann gibt es auch so Unterarbeitsgruppen, bei der Töt-Kontrolle ist es zum Beispiel die Strafverfolgungsarbeitsgruppe, so. 00:28:26.010 --> 00:28:27.423 Ja. Kommission ist? 00:28:28.405 --> 00:28:34.958 Die Kommission ist im Prinzip die Regierung, das war schon richtig beschrieben. Der EU-Rat war falsch beschrieben. Genau. Aber, genau. 00:28:35.400 --> 00:28:39.241 Okay, also mir hat das eh trotzdem geholfen, weil ich würde das, ist egal, ich würde es trotzdem so beschreiben. 00:28:39.241 --> 00:28:46.526 Also genau, also ja, aber es ist ein bisschen anders, weil sozusagen der Rat sind Beamten. 00:28:47.472 --> 00:28:54.022 Also das sind Beamten, die von der Hauptstadt sozusagen geschickt werden und die machen auch das, was die Hauptstadt sagt. 00:28:54.022 --> 00:29:00.939 So kann man sich das eigentlich ganz gut vorstellen. Bundesrat hängt an den Regierungen der einzelnen EU-Mitgliedsländer. 00:29:01.022 --> 00:29:06.022 Genau, das ist ja sozusagen, Bundesrat hängt ja auch an den Regierungen der… Nein? 00:29:06.133 --> 00:29:14.758 Ich finde den Vergleich nicht sehr passend. Ich weiß, warum du ihn ziehst, aber der Bundesrat hat eine andere Funktion in der deutschen parlamentarischen Demokratie. 00:29:14.901 --> 00:29:21.522 Also, ja, deutsche Demokratie machen wir dann auch nochmal irgendwann, aber auf jeden Fall. 00:29:21.522 --> 00:29:26.451 Aber gerade Repräsentanz der Länder, Kommission, Regierung der EU quasi. 00:29:26.829 --> 00:29:38.722 Genau, dann haben wir noch das Parlament. So, genau, und das Parlament. Und der Vorschlag zum EHDS ist am 3. Mai letztes Jahr rausgekommen. Relativ parallel. 00:29:38.722 --> 00:29:40.322 Vorschlag der Kommission. 00:29:40.322 --> 00:29:51.822 Die Kommission hat Vorschlagsrecht. Und das ist ein bisschen untergegangen, auch wegen der Chat-Kontrolle, ist aber eigentlich relativ ärgerlich, dass das so untergegangen ist. 00:29:51.822 --> 00:30:05.822 Und im Prinzip würde ich sagen, wir sind mit dem, das EHDS ist ein bisschen schneller als die Chat-Kontrolle, also was ja dann passiert als nächstes, wenn die Kommission das vorgeschlagen hat, 00:30:05.822 --> 00:30:14.857 wird es an Ausschüsse, also an fachspezifische Ausschüsse im Parlament gegeben, die das erstmal bearbeiten. 00:30:15.022 --> 00:30:23.022 Das ist halt auch schon passiert und diese Ausschüsse geben dann einen sogenannten Bericht ab. 00:30:23.022 --> 00:30:28.621 Das sind im Prinzip eine Liste an Änderungsvorschlägen zu diesem Gesetz. 00:30:28.684 --> 00:30:35.422 Und die wird dann in dem Ausschuss abgestimmt und geht danach dann ans Parlament. 00:30:35.679 --> 00:30:37.902 Und wir sind jetzt sozusagen an der Stelle, wo... 00:30:39.244 --> 00:30:44.843 Wir einen Bericht haben, der aber noch nicht abgestimmt ist. Sozusagen. 00:30:45.203 --> 00:30:54.094 Das heißt die ersten Änderungsvorschläge sind natürlich in Macht und die politische Debatte ist eigentlich losgegangen, wenn man es mal jetzt in line Terminus sagen will. 00:30:54.094 --> 00:31:02.094 Und jetzt gibt es auch mehr Berichterstattung. Im Deutschen muss ich sagen relativ viel, aber es gibt auch in anderen Ländern einfach eine gewisse interessierte Presse. 00:31:02.470 --> 00:31:26.094 Und ich glaube was auch interessant ist, das muss man auch mal dazu sagen, das wird ja auch im Rat verhandelt, aber der Rat, die machen halt so, wie halt so Beamtenhauptstadtansagen Sachen sind, da hat man relativ wenig Einsicht, außer es geht mal irgendwie ein sogenanntes Cable, also so ein Kabelbericht an die Hauptstadt verloren. 00:31:26.094 --> 00:31:27.073 Was ist ein Drahtbericht? 00:31:27.226 --> 00:31:32.494 Die sind eigentlich geheim und in vielen Gesetzgebungsverfahren sickern sie aber durch. 00:31:32.494 --> 00:31:35.694 Das sind sozusagen, ich würde mal sagen, die diplomatischen Kanäle, deswegen heißen die 00:31:35.940 --> 00:31:39.694 Drahtberichte wie früher, weil ich glaube, das kommt aus dieser Zeit, dieser Name. 00:31:39.892 --> 00:31:43.934 Aber immer halt auch nicht, man weiß oft nicht, wie da inhaltlich die Verhandlungen 00:31:43.934 --> 00:31:45.563 laufen und wer sich da auf welche Seite stellt. 00:31:45.814 --> 00:31:49.414 Man weiß ab natürlich, wer die Regierungen sind, die da den meisten Einfluss haben, keine 00:31:49.414 --> 00:31:52.414 Frage. Das ist diesmal interessant, weil... 00:31:53.576 --> 00:32:09.426 Es gibt ein relativ großes Bündnis an Ländern, die wirklich sagen, sie haben wirklich Sorge, dass es irgendwie Privatsphäreimplikationen gibt und dass das problematisch sein könnte. So viel wissen wir auf jeden Fall. 00:32:09.426 --> 00:32:19.277 Und das heißt, das wird jetzt auch sehr kontrovers dementsprechend im Rat unter diesem Motto diskutiert. 00:32:19.538 --> 00:32:25.866 Es gibt noch eine Ebene, die da jetzt fehlt, die wir auch bei uns in der deutschen parlamentarischen Demokratie haben. 00:32:25.866 --> 00:32:30.946 Nämlich in der Regel werden auch noch die zuständigen Stellen als Gutachter hinzugeholt. 00:32:30.946 --> 00:32:36.986 Also etwa der europäische Datenschutzbeauftragte. Also es gibt immer so Gutachten, die in diese politische Debatte reingereicht werden. 00:32:36.986 --> 00:32:41.306 Die haben wir aber auch teilweise schon. Also das kommt immer noch dazu, wie wenn es bei uns auch hätte in den Ausschüssen. 00:32:41.306 --> 00:32:45.807 Dann kann man die Sachverständigen oder der Bundesdatenschutzbeauftragte, das hat man in Europa ziemlich ähnlich. 00:32:45.879 --> 00:32:55.666 Diese politische Debatte, die jetzt gerade stattfindet, die findet statt im Sinne von, da wird über Details verhandelt oder wird grundsätzlich verhandelt. Will man das oder will man das nicht? 00:32:55.763 --> 00:33:13.660 Naja, also es gibt halt kein, also es gibt schon ein will man das nicht, will man das oder will man das nicht. Also wenn entweder das Parlament sagt, nö, wollen wir nicht. Oder der Rat sagt, wollen wir nicht. Dann würde das Gesetz scheitern. 00:33:13.813 --> 00:33:25.666 Dafür müssen die aber erstmal diesen ganzen, wir arbeiten in unseren Fachausschüssen dazu, wir haben einen Report, es kommt zu einer Abstimmung im Ausschuss, es kommt zu einer Abstimmung im Parlamentkreis durchspielen. 00:33:25.666 --> 00:33:29.106 Entschuldigung, ich habe unpräzise gefragt, was ich fragen wollte, eigentlich ist dieser 00:33:29.106 --> 00:33:33.186 Ausschuss, das sind ja auch nach Parteiverteilung sozusagen versetzt, also da sind ja alle Parteien, 00:33:33.186 --> 00:33:37.946 die Parlaments sind auch irgendwie drin und mir ist klar, der Ausschuss selber muss dann 00:33:37.946 --> 00:33:41.586 irgendwas abgeben, wenn dann abgestimmt wird, aber und in der Parteienlandschaft sozusagen 00:33:41.586 --> 00:33:43.946 arbeiten wir alle daran, wie machen wir das möglichst gut? 00:33:44.943 --> 00:33:49.435 Oder gibt es da auch sozusagen Leute, die sagen, nee, lass mal lieber versuchen das Ganze abzuschießen? 00:33:49.768 --> 00:34:06.116 Ich glaube, das ist eine voll schwierige Frage, weil bei EU Gesetzgebungsprozessen ist leider das Problem, es gibt so eine schöne Website, die heißt EU Legislative Train. Wenn so ein Gesetzgebungsprozess und so ein Gesetz erstmal rollt, dann rollt es. 00:34:06.272 --> 00:34:09.512 Es gibt Gegenbeispiele, aber wirklich wenige. Wirklich sehr, sehr wenige. 00:34:09.512 --> 00:34:15.352 Ja, wir haben gerade eins. Das ist nämlich die E-Privacy-Debatte. Aber normalerweise rollt es einfach. 00:34:15.352 --> 00:34:21.992 Ist auch ein bisschen langfristiger als bei uns. Und die Vorstellung, die da gerade in deiner Frage drin rumschwankt, 00:34:21.992 --> 00:34:27.832 nämlich, dass die Bundestagsfraktionen immer klar ist, dass sie so Positionen haben, die ist da oft nicht so. 00:34:27.832 --> 00:34:33.552 Sie ist zwar ähnlich, also die finden sich ja auch in Fraktionen zusammen, aber es ist oft nicht so vorhersehbar, 00:34:33.552 --> 00:34:38.032 wie wir das in der deutschen Demokratie haben, wo man immer schon weiß, die Liberalen werden diese Position haben 00:34:38.032 --> 00:34:41.632 Und die Konservativen, die sind in Europa nicht so festgetan. 00:34:41.632 --> 00:35:04.032 Ja, das liegt aber auch daran, das muss man vielleicht sagen, um so einen kleinen Europa-Background zu geben, dass halt zum Beispiel die Fraktion, wenn du jetzt zum Beispiel die Sozialdemokraten nimmst, Sozialdemokraten in Schweden ist eine komplett andere politische Richtung teilweise sogar, als die Sozialdemokraten in Deutschland. Und dadurch kommt es auch zustande, dass diese Fraktionen keine eindeutigen Positionen haben. 00:35:04.032 --> 00:35:07.712 Genau, ich will gar nicht weiter vorgreifen, damit wir sagen, nächste Folge noch was zu tun haben. 00:35:07.712 --> 00:35:12.192 Was wichtig ist heute für uns zu verstehen, dieses Gesetz ist am Laufen und das heißt, 00:35:12.192 --> 00:35:15.082 weil es anscheinend immer so ist und wie das genau ist, erfahrt ihr dann in der nächsten Folge, 00:35:15.199 --> 00:35:18.912 wenn das an diesem Stand ist, wie wir es jetzt gerade haben, dann wird nur noch über das Wie geredet 00:35:18.912 --> 00:35:20.826 und gar nicht mehr so sehr über das Ob. 00:35:22.192 --> 00:35:26.192 Jein. Pfff. Hahaha. Okay. 00:35:26.192 --> 00:35:31.112 Also leider sind EU-Sachen sehr komplex und es gibt nicht so richtig Schwarz-Weiß. 00:35:31.112 --> 00:35:38.200 Könnte es natürlich auch, also ein Bericht eines Ausschusses kann natürlich auch so aussehen, dass sie einfach alle Artikel löschen. 00:35:38.470 --> 00:35:43.912 Aber das ist momentan hier nicht abzusehen? Das ist momentan hier nicht abzusehen, aber nur so... 00:35:43.912 --> 00:35:45.672 Wir merken uns für heute, die reden über das Wie. 00:35:46.167 --> 00:35:52.512 Die Ausschüsse reden über das Wie. Und die sind auch relativ kritisch, also zumindest inhaltlich kritischer, als ich erwartet hätte. 00:35:52.512 --> 00:35:55.512 Insbesondere zu einer Frage, zu der wir hier noch nicht gekommen sind. 00:35:55.665 --> 00:36:00.512 Nämlich zu der Frage, wie sie sich stellen zu Opt-in, Opt-out. 00:36:00.512 --> 00:36:04.217 Und ich glaube darüber müssen wir mal sprechen, weil das betrifft die deutsche Gesetzgebung 00:36:04.298 --> 00:36:07.552 und aber die europäische natürlich auch und aber auch viele andere Datenvorhaben. 00:36:07.552 --> 00:36:11.959 Da habe ich jetzt verstanden, in Deutschland ist sozusagen weder noch. 00:36:12.400 --> 00:36:14.752 Ja, du hast keine Form von richtig. In Deutschland ist es so, das passiert einfach. 00:36:14.752 --> 00:36:18.592 Richtig. Aber die fordern wir natürlich. Wie ist es dir beim EHDS gerade gedacht? 00:36:19.124 --> 00:36:23.135 Und was ist die Variante, die ihr dann gut fändet? Es gibt total viele Varianten. 00:36:23.135 --> 00:36:32.988 Wir gehen mal von der Ursprungslösung aus. Die Ursprungslösung war eigentlich, man muss glaube ich erstmal unterscheiden, also diese Primärnutzung, Sekundennutzung muss man glaube ich nochmal erklären. 00:36:33.215 --> 00:36:41.360 Primärnutzung ist, von deinen Daten, du gehst irgendwie zum Arzt, zur Ärztin und irgendwie lässt du irgendwie ein Röntgenbild machen und hast Primärdaten generiert. 00:36:41.575 --> 00:36:50.575 Und da geht es primär im EHDS dann darum, dass diese Daten irgendwie interoperabel nutzbar sind, Rezepte, sonstige Dinge. Das ist Primärnutzung von Daten. 00:36:50.785 --> 00:36:56.565 Das ist auch vollkommen legitim, dass dein Arzt irgendwie deine Daten speiern kann, die er im Behandlungskontext erhoben hat. 00:36:56.709 --> 00:37:05.575 Dann gibt es aber neben dieser ganzen Geschichte noch die Sekundärnutzung, die komplett davon losgelöst ist und dem Ursprungsentwurf gedacht war, es gibt eine Sekundärnutzung. 00:37:05.792 --> 00:37:19.815 Alle größeren Kliniken und größeren Praxisverbünde und sonstige Dinge müssen ohne Einwilligung der Person und ohne Mitbestimmung der entsprechenden Leistungserbringer, wie es in Deutschland so schön heißt, 00:37:20.070 --> 00:37:25.975 diese Daten für die sekundären Nutzen quasi übermitteln und freigeben, damit auf diesen Daten geforscht werden kann. 00:37:26.135 --> 00:37:33.135 Das heißt, es ist quasi so ein bisschen wie in Deutschland mit dem Forschungsdatenzentrum, wo du als Patientin nicht dagegen dich wehren kannst. 00:37:33.411 --> 00:37:49.849 Nur mal auf Europaebene nochmal mit dem, gebt mir bitte alle Daten, die ihr habt, ihr Kliniken und Sonstigen, wir machen damit jetzt quasi einen neuen, neuen, ja quasi per Gesetz definierten Datenabflusskanal, der automatisch läuft, bei dem man keine Möglichkeit mehr hat einzugreifen. Das ist der Ursprungsentwurf. 00:37:49.935 --> 00:37:57.295 Also müssen wir es mal mal Zunge zergehen lassen, wir haben es drüber vorher nicht erwähnt. Das war, was da ursprünglich geplant war. Und auch kaum berichtet, also es war… 00:37:57.295 --> 00:38:12.634 Und es geht halt auch viel weiter mit den Daten, die sie da abfließen lassen wollen, als in Deutschland, weil, das muss man auch immer beachten, in Europa ist die Lage, wie mit Gesundheitsdaten umgegangen wird und wie die erfasst werden, teilweise sehr heterogen. 00:38:12.895 --> 00:38:19.415 Das heißt, so Thema Deutschland elektronische Patientenakte, wir diskutieren da noch drüber. 00:38:19.415 --> 00:38:32.385 Es gibt natürlich auch Staaten, wo es das schon gibt und wo das Health Data Space dafür sorgen würde, dass es dann sozusagen elektronische Patientenakte im europäischen Datenraum geben würde. 00:38:32.574 --> 00:38:40.095 Ich habe jetzt Bianca unterbrochen, ich wollte nur nochmal betonen, dass das die Idee war und kein Schwein hat am Anfang darüber debattiert. 00:38:40.095 --> 00:38:41.720 Und die Idee war, wir machen es wie in Deutschland, okay. 00:38:42.095 --> 00:38:46.014 In Deutschland ist das ja schon ein Gesetz gewesen. Ja, ja, eben, deswegen. Und dann? 00:38:46.771 --> 00:39:01.895 Naja, jetzt ist man ja ein bisschen, also man hat erstmal erkannt, dass das ein Problem ist, wenn du da so einen Datenabflusskanal einbaust und in der Größe irgendwie, es ist quasi ein Europa-dimensionierter Datenraum mit 400 irgendwas Millionen Datensätzen. 00:39:02.326 --> 00:39:08.592 Das bedeutet, sobald du irgendwie zum Arzt gehst, sobald irgendwie neue Daten anfallen, gehen die automatisch zur Sekundärnutzung irgendwo hin. 00:39:08.916 --> 00:39:16.621 Ping! So, jetzt hat man aber festgestellt, das ist keine so ganz gute Idee, wir sollten mal drüber sprechen, über das Wie. 00:39:16.811 --> 00:39:28.685 Und jetzt gibt's verschiedene Diskussionen, die sich wahlweise entwickeln in Richtung, man möchte ein Opt-out, also man möchte Möglichkeiten schaffen, dass Patientinnen sagen können, das möchte ich nicht mit diesen Daten. 00:39:28.821 --> 00:39:37.821 Beziehungsweise es gibt auch Überlegungen, dass ich bei bestimmten Sachen explizit einwilligen muss. Das ist so gerade das, wo sich... 00:39:37.821 --> 00:39:40.861 Das heißt Opt-in. Einwilligung heißt hier Opt-in. 00:39:40.861 --> 00:39:46.021 Ich frage mich gerade, wie der Unterschied aussieht, weil Opt-in ist ja, ich willige ein. 00:39:46.021 --> 00:39:50.621 Das heißt, wenn es passieren soll, muss ich gefragt werden. 00:39:50.621 --> 00:39:56.745 Und wenn ich dann nichts sage, dann passiert auch nichts. Nur wenn ich explizit ja sage, dann passiert was. 00:39:56.934 --> 00:40:02.480 Opt-out würde dann in dem Fall aber bedeuten, ich werde nicht gefragt, aber ich kann aktiv hingehen? 00:40:02.813 --> 00:40:03.741 Ja. 00:40:04.163 --> 00:40:14.741 Okay, das heißt man wäre dann davon, man wäre dann sozusagen, also ich stelle mir das für normale Patientinnen, die überhaupt nicht in dem Thema drin sind, die sich für so was nicht interessieren, ist ja opt-out dann sozusagen, also fast schon dasselbe wie… 00:40:14.741 --> 00:40:21.741 Das hast du aber die Patientensicht. Du hast aber die Sicht derjenigen, die an die Daten ran wollen sehen. Die sehen das ganz anders. 00:40:21.741 --> 00:40:32.741 Natürlich sehen die das ganz anders, aber das heißt dann wäre man darauf angewiesen, dass man einen netten Arzt hat, der sagt, liebe Patientin XY, wenn Sie heute nicht Nein sagen, dann werden diese Daten übermittelt. Anders geht das dann gar nicht. 00:40:32.741 --> 00:40:36.421 Dann gar nicht. Oder ist das ObdOrt noch komplizierter gedacht? 00:40:37.165 --> 00:40:42.341 Vor allen Dingen darf es nicht mit Zwang verbunden sein. Du denkst das ist zu praktisch, glaube ich. 00:40:42.341 --> 00:40:45.861 Entschuldigung, ich denke das ist hier meine Aufgabe. 00:40:45.861 --> 00:40:51.661 Nein, ich denke man hätte eine sehr viel verrechtlichere Lösung. Da kann nicht der 00:40:51.661 --> 00:40:55.301 Arzt was aussuchen, sondern wenn man das vorschreibt per Gesetz, dann würde es ja 00:40:55.301 --> 00:40:59.061 irgendeine Form geben, wie das tatsächlich dann praktisch im Krankenhaus oder beim Arzt passiert. 00:40:59.061 --> 00:41:01.061 Oder bei der Apotheke. Cookie-Burners im Krankenhaus. 00:41:01.061 --> 00:41:05.061 Nee, aber wie sähe denn ein Opt-out praktisch aus? 00:41:05.061 --> 00:41:10.261 Ein Opt-out sähe im Prinzip so aus, dass es aufgrund von rechtlichen Grundlagen erstmal 00:41:10.261 --> 00:41:11.770 so automatisch im Hintergrund läuft. 00:41:12.061 --> 00:41:19.341 Das heißt, Menschen, die unter diese Rechtsprechung fallen, müssen automatisch diese Daten entsprechend 00:41:19.341 --> 00:41:21.150 bei den Behandlungen übermitteln. 00:41:21.322 --> 00:41:28.341 Außer du gehst aktiv als Patientin rein und irgendwie erklärst dich dieser Forschungsdatenstelle 00:41:28.341 --> 00:41:33.096 zum Beispiel oder den Krankenkassen oder wem auch immer, die es dann für sich verwalten, 00:41:33.281 --> 00:41:35.121 dass du das explizit nicht möchtest. 00:41:35.121 --> 00:41:38.930 Dafür wird es im Formular gehen. Nein, aber ich versuche es wirklich praktisch zu verstehen. 00:41:38.993 --> 00:41:40.451 Heißt es also? 00:41:41.802 --> 00:41:47.172 Heißt das, meine Daten werden übermittelt und dann sage ich hinterher, ich will das aber gar nicht, dann werden sie wieder rausgelöscht? 00:41:47.365 --> 00:41:58.692 Oder heißt das, ich muss irgendwo mal hingehen und sagen, ich will nicht, dass meine Daten übermittelt werden und dann kriege ich so ein Ping-Label-Achievement auf der Chipkarte und dann werden die Daten in Zukunft nicht mehr übermittelt? 00:41:58.692 --> 00:42:09.042 Ich kann mir das sozusagen praktisch nicht vorstellen. Ja, Bianca hat über die Sekundärnutzung gesprochen. Wenn die irgendwo zusammengeführt werden, dann kriegst du nachher die Möglichkeit, nein zu sagen... 00:42:09.412 --> 00:42:10.735 Aber das heißt, es passiert immer erst mal. 00:42:11.374 --> 00:42:17.090 Nein, du hast jetzt aber ein Beispiel aus der Patientenakte eher genommen und hier geht's ja um die Zusammenführung bei der Sekundärnutzung. 00:42:17.802 --> 00:42:28.172 Ja, ja, aber ich muss ja, also ja, ok. Also Sekundärnutzung habe ich verstanden, ist ja sozusagen nicht, sondern Sekundärnutzung ist ja meine Daten sind eh schon irgendwie da, wer darf da noch ran. 00:42:28.172 --> 00:42:36.166 Ich versuche trotzdem zu verstehen, an welcher Stelle das dann ging, wie ginge. I don't get it. 00:42:36.427 --> 00:42:39.172 Ich glaube, das ist aber eine sehr gute Frage, die du da stellst. 00:42:40.163 --> 00:42:45.172 Weil die noch ungeklärt ist? Also technisch ist es komplizierter. 00:42:45.172 --> 00:42:54.172 Das Thema ist ja auch ein bisschen, wenn wir mal davon ausgehen, bei der Sekundärnutzung, da musst du ja erst eine Infrastruktur bauen, die es ja noch nicht so ganz gibt. 00:42:54.468 --> 00:43:00.172 Also es gibt jetzt die Infrastruktur über die Krankenkassen, wo wir quasi mit dem Forschungsdatenzentrum gerade in Deutschland sind. 00:43:00.172 --> 00:43:12.751 Man müsste ja quasi auch noch eine Verbindung zu diesen ganzen Forschungsdatenzentren, die diese Daten zentralisieren, schaffen, dass die Leistungserbringer, Krankenhäuser, was auch immer, automatisiert ihre Daten dann entsprechend übermitteln können. 00:43:12.895 --> 00:43:24.850 Da müsste man bei denen halt noch die Möglichkeit schaffen zu sagen, okay, jetzt gibt es irgendwie noch so einen Check, wenn Daten von Person xy betroffen sind, kann man nochmal checken, ob die Person xy irgendwie eine Art von Widerspruch hat, dann würde das nicht passieren. 00:43:25.052 --> 00:43:30.612 Und das heißt, diese Infrastruktur ist ja auch, also das ist auch das, was der IADS auch immer in der Implementierung macht. 00:43:30.612 --> 00:43:34.332 Es gibt so technische Rahmenwerke, die da sagen, wie das grundsätzlich funktionieren soll. 00:43:34.332 --> 00:43:40.622 Das ist ja quasi noch im Aufbau. Das hängt auch zusammen mit dem Umbau der elektronischen Patientenakte, 00:43:40.732 --> 00:43:46.412 die ja auch gerade in die Richtung geht, okay, du kriegst automatisch eine, du kriegst die befüllt, 00:43:46.412 --> 00:43:52.226 du kriegst die Zugriffe von den Leistungserbringungen drauf und als vierte Stufe eben, was machst du mit Forschungsdaten. 00:43:52.412 --> 00:43:57.452 Und das ist in der Ausgestaltung noch so ein bisschen spannend, weil diese Daten automatisch 00:43:57.452 --> 00:44:00.892 irgendwo hinfließen zu lassen, die in der elektronischen Patientennetze eigentlich irgendwie 00:44:00.892 --> 00:44:05.856 verschlüsselt sind und besonders gesichert, dass sie eben nur für die Patientinnen zur 00:44:06.132 --> 00:44:10.092 Verfügung stehen, dann automatisch irgendwohin abfließen zu lassen, ist halt nochmal eine 00:44:10.092 --> 00:44:11.092 ganz eigene Infrastruktur. 00:44:12.157 --> 00:44:15.772 Aber wir versuchen nur die Ebenen auseinanderzuhalten und sie trotzdem zusammen zu denken, weil 00:44:15.772 --> 00:44:16.772 sie ja nochmal zusammen gedacht werden müssen. 00:44:16.772 --> 00:44:20.172 In meinem Kopf geht sich gerade der totale Knoten, weil für mich klingt das ein bisschen 00:44:20.172 --> 00:44:26.612 Also es gibt entweder Opt-in, dann muss die Entscheidung halt sozusagen an der Stelle 00:44:26.612 --> 00:44:31.492 stattfinden, wo die Datenbetagung stattfindet, oder es gibt Opt-out, aber das bedeutet relativ 00:44:31.492 --> 00:44:32.772 wahrscheinlich praktisch. 00:44:34.069 --> 00:44:37.175 Dass es irgendwie nicht funktioniert. Also ich krieg das immer im Kopf. 00:44:37.919 --> 00:44:39.919 Guck, du kannst es technisch bauen. 00:44:39.919 --> 00:44:43.919 Du musst es unterschiedlich bauen. Aber du musst eh diese Möglichkeit einbeziehen, 00:44:43.919 --> 00:44:47.919 denn nach dem europäischen Datenschutzrecht hat sowieso jeder auch die Möglichkeit der Einsichtnahme. 00:44:47.919 --> 00:44:51.919 Du musst Daten löschen können. Also du brauchst diesen Kanal technisch sowieso. 00:44:51.919 --> 00:44:55.919 Es ist wahrscheinlich technisch einfacher, sich eine Opt-in-Lösung zu denken. 00:44:55.919 --> 00:45:01.919 Aber Verzeihung, das ist nicht unbedingt die Kategorie, in der wir hier denken müssen, 00:45:01.919 --> 00:45:06.959 müssen, was einfacher zu bauen ist. Zumal wenn das für einen sehr langfristigen Zeitraum 00:45:06.959 --> 00:45:10.799 sind, der alles immer viele Jahre, die die Daten da festhalten wollen, gedacht ist. 00:45:10.799 --> 00:45:13.661 A. Aber habt ihr eine präferierte Lösung, wenn ihr jetzt Opt-in, Opt-out? 00:45:14.786 --> 00:45:13.661 B. Opt-in. 00:45:14.999 --> 00:45:21.839 A. Ja, genau. Mein Verdacht wäre gewesen, ihr findet Opt-in geiler als Opt-out, weil 00:45:21.839 --> 00:45:27.381 Opt-in sozusagen überlässt die Entscheidung immer sozusagen konkret beim Betroffenen. 00:45:27.885 --> 00:45:32.439 Aber du klangst gerade so wie, vielleicht ist Obd auch eine ganz gute Idee, aber ist nicht das so? 00:45:32.439 --> 00:45:40.439 Diese Eindruck ist falsch. Also ich finde das auch einfach von der Frage, wie informiert ein Patient sein muss. 00:45:40.439 --> 00:45:46.294 Und für den Aufwand, den auch Leute, die daran forschen wollen, zu betreiben haben, für ein Obd hin viel besser. 00:45:46.439 --> 00:45:50.439 Aber ich habe natürlich jetzt sehr viele Stellungnahmen gelesen im Rahmen des Gerichtsverfahrens, 00:45:50.498 --> 00:45:56.439 was dagegen spricht aus Sicht der Medizinforscher oder der Leute, die in diesem industriellen Bereich tätig sind. 00:45:56.439 --> 00:46:12.039 Tätig sind. Natürlich stört die das enorm, weil sie wissen, dass es sehr viel weniger Menschen sind, deren Daten sie dann da verarbeiten können, weil einfach die Trägheit ist groß und es ist auch in anderen Datenbereichen sehr gut beforscht, wie wenig Leute dann dabei sind. 00:46:12.039 --> 00:46:35.393 Und ich glaube aber, wir kommen hier an einen sehr wichtigen Punkt zu deiner Anfangsfrage, ob wir prinzipiell dagegen sind, was zum Beispiel jetzt diese Primärnutzungszwecke angeht, weil das ist, glaube ich, ein ganz grundsätzliches Problem bei Digitalisierung in Deutschland, aber auch bei Digitalisierungsfragen international und da ist In-Opt-Out das beste Beispiel. 00:46:35.609 --> 00:46:43.499 Wir wollen ja nicht, dass irgendwie fünf versprengte Hacker die Möglichkeit haben, informationelle Selbstbestimmung auszuüben. Wäre auch was, aber… 00:46:43.499 --> 00:46:58.763 Wäre auch was, aber das ist ja nicht das Ziel. Unser Ziel bei Digitalisierung ist ja, klar, wir wollen irgendwie einen gewissen Zugewinn an Convenience haben, aber wir wollen auch, dass alle informationelle Selbstbestimmung haben. 00:46:59.240 --> 00:47:05.919 Und dass das auch irgendwie für jeden, egal wie wenig, digital Wissen. 00:47:06.702 --> 00:47:28.074 Er oder sie hat, möglich ist, zu sagen, ich kann immer noch alles auf Papier machen und es sorgt irgendwie nicht dafür, dass es einen Datenabfluss ohnegleichen gibt und ich gar nichts dagegen machen kann, sondern dass ich wirklich der Herr über meinen Daten sein kann, egal wie viel oder wenig technisches Wissen ich mitbringe. 00:47:28.344 --> 00:47:40.110 Und ich glaube, das ist extrem wichtig, in all diesen Diskussionen immer zu beobachten, herzunehmen und zu sagen, es muss für alle möglich sein und nicht nur für Leute, die Expertise haben. 00:47:40.236 --> 00:47:53.361 Verstanden. Klingt einleuchtend. Ich würde dann jetzt zur Sicherheit, zur Datensicherheit kommen können. Es gibt noch die beiden Themen Pseudonymisierung und generelle IT-Sicherheit. 00:47:53.487 --> 00:47:55.639 Wo bist du heute, Nerd? Ich werde sie dir auch noch ansprechen. 00:47:56.143 --> 00:48:06.272 Haha. Ich meine, es ist schon das Chaosradio. Also das Ziel ist ja immer, wir fangen am Anfang an, aber am Ende sind wir auch so ein bisschen im Rabbit Hole drin. 00:48:06.415 --> 00:48:10.752 Deswegen, wie rum muss man es jetzt machen? Vielleicht erstmal Pseudonymisierung. 00:48:11.015 --> 00:48:22.592 Pseudonymisierung, soweit ich es kenne, ist nicht Anonymisierung, sondern heißt, plastisch gesagt, an den Daten steht nicht mehr mein Name dran. 00:48:22.592 --> 00:48:33.592 Aber meine Daten sind immer unterscheidbar von allen anderen Daten und sind immer sozusagen, also ich weiß, die gehören zu einem, die gehören zu einer Person. 00:48:33.592 --> 00:48:40.292 Also beim Krankendatensatz gibt es eine, also wie ich es verstanden habe, gibt es dann sozusagen meinen Datensatz. 00:48:40.292 --> 00:48:44.592 Da steht aber nicht mehr Markus Richter dran, sondern halt irgendeine komische Zahlenfolge. Ist das Polynomisierung? 00:48:44.592 --> 00:48:52.232 Wir lassen mal Bianca die Definition machen, die stimmt natürlich so nicht, da sind ein paar Fehler drin. 00:48:52.416 --> 00:48:53.802 Wieso das denn? Warum? 00:48:54.232 --> 00:48:57.232 Naja, weil... Du wolltest Bianca lassen, ich sag's dir. Ja, ich wollte Bianca lassen. 00:48:58.033 --> 00:49:10.358 Also bei Pseudonymisierung ist im Prinzip so, du versuchst einen Datensatz, der ist in Klarnamen auf dich beziehbar, ist eindeutig personenbeziehbar, versuchst du Personenbezug durch ein Pseudonym zu ersetzen. 00:49:10.511 --> 00:49:20.881 Das kann jetzt zum Beispiel sein, dass du, um dein Beispiel aufzugreifen, jetzt hat man irgendwie deine, nehmen wir mal ein Blutbild. 00:49:21.097 --> 00:49:29.082 Da ist vorher dein Name dran oder irgendwie zum Beispiel auch deine Krankenversicherungsnummer oder was haben wir noch? Irgendwelche Dinge, die dir eindeutig zuordnenbar sind. DNA. 00:49:29.488 --> 00:49:39.883 DNA. Irgendsowas. Also ein eindeutiges Merkmal. Dann versucht man diese eindeutigen Personenbeziehungen zu ersetzen durch ein gewürfeltes Pseudonym. 00:49:40.047 --> 00:49:52.483 Also kriegst du dann irgendwie eine zufällige Nummer, die man dann auch nicht mehr hochzählen kann, dass man jetzt irgendwie nicht mehr weiß, dass die Krankenversicherungsnummer plus eins zu deiner irgendwie logisch dann next bis, und man würfelt das ein bisschen durch. 00:49:52.483 --> 00:49:58.412 Also eigentlich sind diese Pseudonyme auch nicht mehr logisch nachvollziehbar in irgendeiner Reihe zu dem vorherigen. 00:49:58.844 --> 00:50:03.237 Das heißt, man muss natürlich, wenn man jetzt das wieder zurückrechnen möchte, irgendwo diese Pseudonyme vorhalten. 00:50:03.323 --> 00:50:08.083 Das macht man ja in diesem Forschungsdatenzentrum das Thema auch, das kann Konstant noch genauer erklären. 00:50:08.251 --> 00:50:13.050 Und das ist erstmal Pseudonymisierung. T. Top, habe ich eine Frage. 00:50:13.131 --> 00:50:19.083 Das heißt, in einer Datenbank stehen die Daten mit dem Pseudonym und in einer anderen 00:50:19.083 --> 00:50:22.250 getrennt steht die Verbindung, welches Pseudonym gehört zu welchem Namen. 00:50:22.655 --> 00:50:25.483 So habe ich dich gerade verstanden, Bianca. B. Sollte halt nicht dieselbe Stelle sein, nicht wahr? 00:50:25.483 --> 00:50:30.203 T. Sollte nicht dieselbe Stelle sein, aber es gibt beide Datensätze, aber sie sind getrennt. 00:50:30.203 --> 00:50:32.693 B. In Deutschland ist es ein bisschen komplexer, aber im Prinzip ja. 00:50:32.764 --> 00:50:38.203 T. Im Prinzip ist das die Idee. Die andere Frage, die ich habe, ist, also am klassischen Beispiel, ich gehe ja zu 00:50:38.203 --> 00:50:42.763 vielen Ärzten. Gibt es ein Pseudonym, das immer wieder vergeben ist? 00:50:42.803 --> 00:50:47.723 Oder hat mein Hausarzt und sozusagen die Daten von meinem Hausarzt bekommen ein 00:50:47.723 --> 00:50:52.483 anderes Pseudonym als die Daten von meinem, ich denke mir mal, 00:50:52.483 --> 00:50:54.478 oder was total Wildes aus Sportarzt. 00:50:55.342 --> 00:51:06.432 Also gibt es in diesem Datensatz meine gesamte Krankenakte mit einem und demselben Pseudonym oder gibt es für verschiedene Dinge verschiedene Pseudonyme, die aber auf mich zurückführbar sind? 00:51:06.432 --> 00:51:14.652 Also wir gehen mal von dem aus, was das Zielbild ist, von dem was auch mit Forschungsdatenzentrum und zukünftigen Gesetzesvorhaben auch das Ziel ist. 00:51:14.652 --> 00:51:24.132 Ziel ist eigentlich unter allem, als Mehrwinger von einer Pseudonym-Krankenakte auch quasi querverweise fragen zu können. 00:51:24.132 --> 00:51:36.692 Also wenn ich jetzt irgendwie sage, okay, ich mache erst eine Studie über Bluthochdruck, dann möchte ich dann irgendwie noch Querbeziehungen haben zu Alipositas oder so. 00:51:36.870 --> 00:51:41.704 Und das heißt, es ist eigentlich ein Pseudonym für alles über den gesamten Datensatz. 00:51:41.785 --> 00:51:50.212 Man könnte es natürlich auch anders machen, man macht es für verschiedene Sektoren, verschiedene Pseudonyme, wo man dann nochmal eine getrennte Datenbank hat, dass diese Kreuztabellen irgendwo verfügbar sind. 00:51:50.301 --> 00:52:04.012 Aber eigentlich ist der Gedanke tatsächlich in der medizinischen Forschung, dass ich das, was Mediziner mir immer total vorbieten, als Fachbegriff longitudinale Krankheitsverläufe habe, also über das gesamte Leben hinweg, dass ich das unter einem Pseudonym quasi habe. 00:52:04.012 --> 00:52:11.212 Die meinen das auch wirklich lang. In Deutschland ist das etwa 30 Jahre. Aber du hast natürlich praktische Probleme. Du stellst dir jetzt vor, du wechselst nicht die Krankenkasse oder so. 00:52:11.212 --> 00:52:13.212 Da gibt es natürlich technisch praktische Probleme. 00:52:13.320 --> 00:52:16.452 Jemand wechselt die Krankenkasse, dann muss das schon zusammenführen. 00:52:16.452 --> 00:52:23.285 Aber im Wesentlichen ist die Argumentation auch, du möchtest natürlich möglichst langfristig forschen können. 00:52:23.492 --> 00:52:27.532 Das heißt, du willst vielleicht mal gucken, wie war es vor 25 Jahren bei demselben Menschen, 00:52:27.532 --> 00:52:30.252 den du aber natürlich nicht namentlich, also nicht mit seinem Plan haben. 00:52:30.252 --> 00:52:33.572 Das ist ein ganz starkes Argument, kommt immer. Ist auch in meinem Fall so. 00:52:33.572 --> 00:52:37.572 Also ich finde das jetzt sagen, also jetzt mal, wir haben ja keine Mediziner in hier, 00:52:37.572 --> 00:52:42.132 aber sozusagen aus, ich finde das erst, das klingt erstmal plausibel, also wenn ich diese 00:52:42.132 --> 00:52:46.932 Daten habe, dann möchte ich sozusagen auch immer einen Datensatz, der einem konkreten 00:52:46.932 --> 00:52:50.012 Menschen entspricht, im Sinne von, um genau so eine Forschung machen zu können, weil 00:52:50.012 --> 00:52:50.958 das vielleicht nicht gab. 00:52:51.624 --> 00:53:04.246 Ja, es mag sein, dass sie dann in der Praxis bilden, die vielleicht gehorten, weil sie was anderes forschen wollen oder so, aber es gibt auch viele Fälle, die haben auch immer unglaublich viele Einzelfälle, die sie dann heranziehen, wo man das möchte. 00:53:04.479 --> 00:53:12.995 Also wo die Forschungsfrage auch genau so konzipiert ist oder eben auch eine Langfristforschung sein soll. Da kann man sich auch als Laie viele Beispiele vorstellen. 00:53:12.995 --> 00:53:26.985 Ich finde das auch ganz interessant, weil bei diesen Diskussionen, finde ich, ist es immer spannend auch zu wissen, okay, dieser eine Nuxusansatz, der da präsentiert wird, der hat tatsächlich Hand und Fuß und ist nicht sozusagen was Ausgedachtes, um was anderes umzusetzen. 00:53:27.498 --> 00:53:47.303 Und das Interessante ist, weil es ja ein europäisches Gesetz ist und ich hatte das ja gesagt, es gibt eine gewisse Heterogenität, wie Gesundheitsdaten funktionieren und es gibt natürlich auch europäische Länder, die solche Unique Identifier, also die da auch zum Beispiel benutzt werden könnten, schon benutzen. 00:53:47.429 --> 00:53:54.315 Also wo deine Krankenakte an eine eindeutig identifizierbare Nummer schon geknüpft ist. 00:53:54.315 --> 00:53:59.315 Aber eine gewisse Heterogenität ist glaube ich die Untertreibung des Jahrzehnts. Natürlich. 00:53:59.315 --> 00:54:04.315 Aber in Europa gibt es echt einen Zoo. Einen Zoo, genau. 00:54:04.315 --> 00:54:07.315 An Umgang mit Gesundheitsdaten, mit Identitäten, alles mögliche. 00:54:07.315 --> 00:54:11.315 Aber darauf wollte ich jetzt nicht eingehen. Ich fand es so lustig, eine gewisse Heterogenität. 00:54:11.315 --> 00:54:15.075 Okay, wir müssen noch eine Frage zum Pseudonym haben. 00:54:15.315 --> 00:54:21.315 Beim Pseudonym und dann glaube ich, wenn man treue Chaos-Radiohörerin ist, dann hat man das möglicherweise mitbekommen, 00:54:21.315 --> 00:54:25.595 das ein grundlegendes Problem bei Pseudonymisierung ist, wenn... 00:54:26.445 --> 00:54:32.455 Die Daten, die gesammelt werden, einem einzelnen Menschen entsprechen, dann gibt es manchmal 00:54:32.455 --> 00:54:41.209 eine Ansammlung von Merkmalen, aus denen ich dann sozusagen zurückfolgern kann, wer das ist. 00:54:41.713 --> 00:54:44.729 A. Du bist besonders stark bei Gesundheitsdaten, korrekt. 00:54:45.728 --> 00:54:50.775 B. Okay, gut. Sehen die GesetzgeberInnen, die da gerade verhandeln, das Problem und 00:54:50.775 --> 00:54:52.570 wird das irgendwie verargumentiert? 00:54:52.795 --> 00:55:12.321 Also die Kommission hat ja offensichtlich diesen Vorschlag gemacht und hält das für eine gute Idee. Wenn wir uns jetzt aber angucken, was in den Änderungsanträgen der einzelnen Ausschüsse passiert ist, würde ich sagen, die Antwort ist ja. 00:55:12.762 --> 00:55:27.575 Also von, also und das ist wirklich interessant, das ist auch wirklich der gesamte Strauß an allen politischen Gruppen, die sagen, sie sehen da ein Problem und sie möchten irgendwie daran arbeiten, das zu lösen. Die einen in die eine Richtung und die anderen in die andere Richtung, aber die ist da. 00:55:27.670 --> 00:55:46.701 Gibt es denn da, also ich stelle mir das schwierig vor sozusagen, weil wenn das Ziel ist sozusagen, wir möchten, dass die Daten möglichst konkreten Personen entsprechen für die Forschung, dann laufe ich direkt in diese Probleme rein. Gibt es da Ansätze? Kann man die Daten irgendwie verweichlichen oder dekonkretisieren oder was? Keine Ahnung, was man da machen kann. 00:55:46.890 --> 00:55:51.815 Also es gibt, glaube ich, es gibt keine magische technische Lösung, die alle Probleme löst. 00:55:51.815 --> 00:55:56.909 Es gibt immer so Lösungen, die können in bestimmten Bereichen Risiken minimieren. 00:55:57.017 --> 00:56:00.762 Aber es gibt nicht so diese magische Lösung, die für alle Anwendungsfälle funktioniert. 00:56:01.356 --> 00:56:18.290 Weil du es mit Verweichlichen gesagt hast, es gibt so Verfahren wie Differential Privacy, da werden Daten bewusst verrauscht, das heißt man macht dann so Rundungen und guckt, dass man aufgrund von den Rundungen keine eindeutige Nachvollziehbarkeit mehr von diesen Daten hat, weil die Daten dann einfach in dieser Rundung untergehen. 00:56:18.830 --> 00:56:35.606 Das hat aber dann zum Beispiel den Nachteil, dass man das dann manche bewusst sagen, ja dann habe ich keine präzisen Daten mehr, dann kann ich keine präzisen Forschungen mehr machen. Dann gibt es irgendwie so Sachen wie Verschlüsselung, also auf verschlüsselten Daten forschen, Multi-Party Computation, sonstige Dinge. 00:56:35.606 --> 00:56:44.606 Und ich glaube bei vielen Sachen ist natürlich auch die Frage, also Gesundheitsdaten sind ja auch dann häufig besonders kritisch, wenn es um Krankheitsbilder geht, die besonders selten sind. 00:56:44.606 --> 00:56:52.186 Wenn halt nur drei Menschen diese Krankheit haben und du das sozusagen in so einen Pott speist und mischt und nur sozusagen das Ausgerechnete am Ende raushaust, 00:56:52.282 --> 00:56:58.080 würdest du sagen, ja kannst du halt relativ einfach einen Rückschluss darauf ziehen, welche drei Menschen das sind. 00:56:58.178 --> 00:57:07.386 Das ist natürlich ein Problem, das dann auftaucht, obwohl dieses Konzept theoretisch das verschleiern sollte. 00:57:07.386 --> 00:57:12.106 Ich würde da noch mal ansetzen wollen. Also Bianca hat jetzt ein paar konkrete Beispiele genannt. 00:57:12.106 --> 00:57:18.118 Also wie gute, auch massenweise, also milliardenfach eingesetzte Ansätze gibt. 00:57:18.388 --> 00:57:21.062 Differential Privacy wäre eins, die man nehmen könnte. 00:57:21.386 --> 00:57:26.292 Aber sie hat auch genau das Problem benannt, was auch sofort immer als Gegenargument kommt. 00:57:26.586 --> 00:57:45.026 Wenn du kannst dir immer irgendeinen Einzelfall aus dem allerwertesten ziehen, wo dieses spezielle Verfahren, was du gerade besprichst, zum Beispiel Differential Privacy, dein konkrete Forschungsproblem irgendwie entweder erschwert oder auch nichtichtmacht. 00:57:45.215 --> 00:57:52.210 Das heißt, du hast kein Verfahren, was alles wunderbar erschlagen würde. Und damit kommen sie dann auch argumentativ immer. 00:57:52.546 --> 00:57:57.278 Weil natürlich so ein, also der medizinische Forscher oder der, der. 00:57:58.106 --> 00:58:04.408 Also der mit dem kommerziellen Bereich forschen will, der sucht ja auch meistens gerade diese Fälle. 00:58:04.617 --> 00:58:10.791 Also das ist ein interessantes Phänomen, dass es technische Lösungen gibt, auch solche, die lange im Einsatz sind, die gut beforscht sind und so. 00:58:11.205 --> 00:58:18.029 Aber die haben halt nie dieses absolute, vollständige Problemlösen. 00:58:18.191 --> 00:58:23.117 Aber ich glaube, das ist ja sozusagen wirklich, das ist ja tatsächlich ein klassisches Dilemma oder das geht ja einfach nicht. 00:58:23.117 --> 00:58:32.517 Eben und das anzuerkennen fällt aber vielen ganz durch schwer, weil diese medizinischen Forschungen immer sofort mit Leben und Tod kommen und das ist nach der Pandemie jetzt auch stärker geworden. 00:58:32.517 --> 00:58:41.117 Man muss ja sagen, wir haben jetzt mit der Pandemie immer so ein bisschen argumentiert und dass der Wunsch danach, anders und besser zu forschen, dadurch verstärkt wurde. 00:58:41.117 --> 00:58:44.162 Aber die Wahrheit ist natürlich, dass die Idee ein bisschen älter ist als die Pandemie, ne? 00:58:44.317 --> 00:58:58.517 Das war jetzt nur sozusagen ein wohlfreiler Anlass. Aber da hat sich was verschoben. Ich finde aber den Anspruch, dass man irgendeine Form von Privacy-Enhancing-Technologie findet. Also bei unserem Verfahren wird sehr viel über Differential Privacy gestritten. 00:58:58.517 --> 00:59:12.517 Dass man die findet und damit alle Probleme löst, finde ich infam. Weil da fällt ja völlig diese Abwägung weg, die man treffen muss. Weil der verschiedene schützenswerte Güter gibt, die man hier abzuwägen hat. 00:59:12.771 --> 00:59:20.877 Und irgendwie wird den Technikern dann immer die Aufgabe gestellt, ey, jetzt macht das aber mal so, dass das jetzt schon aber wirklich alles und toll erschlägt. Finde ich unmöglich. 00:59:20.877 --> 00:59:30.997 Aber ich möchte jetzt wirklich eine Lösung von euch, aber sozusagen keine technische, sondern die Frage, gibt es denn, jetzt haben wir, also wir haben ja zwei Sachen jetzt gerade gesprochen, also das In-Opt-In-Opt-Out und jetzt eben die Pseudonymisierung. 00:59:31.262 --> 00:59:37.157 Erstmal nur auf diese beiden Säulen betrachtet, sagen, gibt es da eine Forderung, die man daraus ableiten kann, die ihr unterschreiben würdet? 00:59:37.157 --> 00:59:43.137 Also ich könnte mir vorstellen, dass man sagt, okay, wir anerkennen, dass man mit den 00:59:43.137 --> 00:59:47.637 konkreten Daten forschen will und dass es keine perfekte technische Lösung gibt, deswegen 00:59:47.637 --> 00:59:49.837 sagen, könnt ihr machen, aber mit Opt-in. 00:59:50.410 --> 00:59:53.957 Das ist nur ein ausgedachter Impuls, den ich in meinem Kopf habe. 00:59:53.957 --> 01:00:00.157 Meine Frage an euch ist, gibt es eine konkrete Forderung, wo ihr sagt, an den EHDS würden 01:00:00.157 --> 01:00:03.317 wir uns wünschen, dass es auf die Art und Weise funktioniert? 01:00:04.678 --> 01:00:09.317 Ja, das ist jetzt wieder so eine Zuspitzung, die du da machst. Ja, natürlich. 01:00:09.317 --> 01:00:15.317 Also, okay, dann müssen wir über IT-Sicherheit eigentlich sprechen und welche Maßnahmen wir fordern würden. 01:00:15.317 --> 01:00:20.317 Die zusätzlich sind zu der Frage dieser Widerspruchsrechte. 01:00:20.999 --> 01:00:25.317 Denn egal, ob du Opt-in, Opt-out hast oder aber gar keinen Opt-in, Opt-out, 01:00:25.317 --> 01:00:33.981 Du hast es IT-sicherheitsmäßig so zu sichern, dass nicht Hinz und Kunz und seine Schwester irgendwie ein Datenreichtum haben. 01:00:34.137 --> 01:00:41.525 Denn wir haben ja parallel auch eine IT-Sicherheitskrise. Und die drückt sich auch geradeaus in Fragen von gehackten Gesundheitsdaten. 01:00:42.020 --> 01:00:48.610 Und das zu adressieren, das hängt zusammen, aber es sind auch teilweise explizit andere Forderungen, die hier zu stellen sind. 01:00:49.591 --> 01:00:53.717 Ich würde Bianca gerne noch hören. Der Gesichtsausdruck war so wie... 01:00:53.717 --> 01:00:55.280 Interessante Frage, aber ich weiß nicht so genau. 01:00:56.315 --> 01:01:07.451 Also ich glaube, das ist das Grundproblem, was wir haben. Also diese Universallösungen, die wir immer so haben. Wir wollen technische Universallösungen, wir wollen irgendwie so die zentrale Datensammelstelle, weil die ist einfach und convenient. 01:01:07.956 --> 01:01:17.966 Ich glaube, wir haben für vieles, brauchen wir so den Möglichkeitenraum, den wir Leuten auch irgendwie bieten. Das ist bei Opt-in und Opt-out das Szenario. Also es gibt Menschen, die möchten, die sagen, ja macht mit deinen Daten, was ihr wollt. 01:01:17.966 --> 01:01:26.966 Ich habe den universal Zustimmung von mir und es gibt Menschen, die möchten sehr, sehr differenziert genau gucken, was sie machen möchten. 01:01:26.966 --> 01:01:32.566 Aber wir kriegen immer so diese, wir kriegen nur eine Lösung, wir müssen uns auf eine Lösung einigen, die soll für alles funktionieren. 01:01:32.566 --> 01:01:40.966 Das kann ja nicht funktionieren, weil Menschen sind ja auch in der Art und Weise, wie sie mit Gesundheitsdaten sich ausdrücken und artikulieren wollen, ganz anders. 01:01:40.966 --> 01:01:58.966 So ist es, glaube ich, auch bei der technischen Fragestellung. Also es gibt, glaube ich, für bestimmte Szenarien Lösungen für den Einzelfall, aber es gibt keine universelle für vieles. Und das ist, glaube ich, bei vielen Dingen, wo man das Gefühl, also im Gesundheitsthema gerade so dieses, man will eine schnelle Lösung für alles machen. 01:01:59.061 --> 01:02:05.626 Aber man muss anerkennen, dass es verschiedene Möglichkeiten für verschiedene Zwecke braucht. 01:02:05.626 --> 01:02:12.066 Und dass man manchmal auch sehr stark die Patientin miteinbeziehen muss und sie fragen muss, wie möchtest du das eigentlich? 01:02:12.066 --> 01:02:14.806 Folgende Risiken sind dabei, das sind die Chancen. 01:02:15.013 --> 01:02:20.826 Und wenn du nicht damit zurechtkommst, dann wird es jetzt leider in technischen Tiefen nicht erklären können. 01:02:20.826 --> 01:02:24.159 Hier sind Empfehlungen von neutralen Organisationen zum Beispiel, die sagen. 01:02:24.376 --> 01:02:39.572 Gut, wir haben uns das mal angeguckt. Technisches Risiko ist vertretbar, beziehungsweise gar nicht vertretbar. Das sind ja so Mitteldinge auch immer, weil die Vorstellung, die immer kommt, ist, wenn du das so kompliziert machst mit dieser Mitbestimmung, dann versteht das ja kein Mensch mehr. Also machen wir das einfach für euch. 01:02:40.211 --> 01:02:46.586 A. Ich habe noch eine Detailfrage und zwar, das klingt jetzt ein bisschen so, als ob man 01:02:46.586 --> 01:02:52.066 nicht nur opt in, opt out, sondern auch opt in, aber dann mit. Ich habe noch eine Frage 01:02:52.066 --> 01:02:56.306 zu dieser Pseudonymisierung. Die, wie heißt das, differential? 01:02:56.865 --> 01:03:03.626 B. Differential privacy. A. Differential privacy funktioniert doch nur, wenn da alle mitmachen. Oder geht das 01:03:03.626 --> 01:03:09.226 auch sozusagen, manche Daten werden verrauscht und manche nicht, geht das? 01:03:10.458 --> 01:03:13.906 Nee, du willst das eigentlich über den Datenbestand machen, den du gerade nutzen willst. 01:03:13.906 --> 01:03:20.244 Also das wäre kein Weg zu sagen, du kannst ganz einwirken oder du kannst sagen, ja, aber verrauscht. 01:03:21.819 --> 01:03:30.669 Also wenn du Daten rausgibst, etwa an den, der nutzungsberechtigt ist, der einen Antrag gestellt hat und der kriegt einen fetten Block Daten, dann kannst du das Verfahren nutzen. Nein, nein, nein. 01:03:30.669 --> 01:03:37.669 Die Frage war, ob wir sagen, also du schmeißt gerade zwei Sachen durcheinander, also für uns… 01:03:37.669 --> 01:03:38.669 Oder ich bringe sie zusammen. 01:03:38.669 --> 01:03:48.669 Ja, oder du bringst sie zusammen. Das könnte eine sehr schlechte Idee sein, weil man sollte seine Parlamentarier nicht unbeaufsichtigt lassen und sie sollte sie auch tunichst nicht auf solche Ideen bringen. Okay. 01:03:48.781 --> 01:03:54.469 Also, ich verstehe… Stopp. Es war erst mal nur eine Frage, wie ist das technisch? 01:03:54.578 --> 01:03:59.683 Meine Frage ist eigentlich die, wenn ich einen Datensatz habe, wo verschiedene Menschen daran 01:03:59.755 --> 01:04:05.498 beteiligt sind, ist es dann technisch sinnhaft zu sagen, ein paar von denen verrauschen und ein paar nicht? 01:04:06.083 --> 01:04:13.629 Oder? Also, wenn wir von einem Konzept ausgehen, was wir auf Privacy by Design auslegen wollen, 01:04:13.834 --> 01:04:21.045 dann wollen wir das per Default komplett immer so machen. 01:04:21.468 --> 01:04:28.389 Da stellen wir auch gar nicht die Frage, ob nein oder ja. Da widerspricht ihr euch sozusagen selber, aber ihr habt ja gerade gesagt, die Leute 01:04:28.389 --> 01:04:31.749 wollen verschiedene Auswahlmöglichkeiten haben, da könnte ich mir vorstellen, dazu 01:04:32.029 --> 01:04:35.349 zählt halt auch, dass ich sage, bitte nehmt meine Daten und nehmt den Datensatz auch so 01:04:35.349 --> 01:04:36.214 konkret, wie es geht. 01:04:36.880 --> 01:04:41.309 Okay, warte mal, da müssen wir vielleicht nochmal kurz sagen, was ist der Sinn von Differential Privacy damit? 01:04:41.840 --> 01:04:51.389 Man muss sich mal klar machen, was das soll. Das ist eine von verschiedenen technischen Möglichkeiten, um dieses De-anonymisieren 01:04:51.389 --> 01:04:53.939 möglichst wirksam zu erschweren. 01:04:54.109 --> 01:05:00.241 Das ist das Ziel von Differential Privacy. Also zu sagen, ihr käppchen fetten Blob an Daten und ihr könnt nicht... 01:05:01.231 --> 01:05:07.081 Einen anderen riesen Datendatz dagegen laufen lassen, um Leute zu de-anonymisieren. Das wäre der Zweck der Übung. 01:05:07.416 --> 01:05:09.405 Und ich glaube, deine Frage zählt auf ein anderes, oder? 01:05:10.612 --> 01:05:19.081 Ja. Ne, meine Frage zählt darauf, in diesem Blob könnte es da auch Daten geben, die man de-anonymisieren kann oder welche, die man nicht de-anonymisieren kann. 01:05:19.081 --> 01:05:28.904 Also die Argumentationskette von Markus ist, für Forscher ist ja sozusagen, je mehr sie wissen über die Personen, desto besser. 01:05:29.597 --> 01:05:55.081 Und je genauer die Daten sind, desto besser. Und wenn wir über Opt-in sprechen, ob es sinnvoll möglich ist, zu sagen, ich mache ein generelles Opt-in, aber auch ein Opt-in dafür, dass sozusagen in Klarnamensmanier meine Daten übermittelt werden, weil das ja besser ist für die Forschung. Also sozusagen eine Datenspende in großen Anführungszeichen. 01:05:55.081 --> 01:06:04.670 Na gut, sowas gibt es natürlich heute auch. Es gibt viele Forscher, die gerade bei seitlichen Krankheiten oder spezifischen Krankheiten auch heute Patienten explizit fragen. 01:06:04.841 --> 01:06:09.369 Dann sind das auch nicht pseudonymisierte Daten. Das gibt es ja. 01:06:09.666 --> 01:06:11.836 Aber das kann man nicht zusammen... 01:06:12.439 --> 01:06:19.776 Ich glaube, ich erkläre meine Frage anscheinend nicht gut genug. Vielleicht bin ich auch schon zu lange hier beim Chaos dabei. Meine Frage ist folgendes. 01:06:20.379 --> 01:06:27.161 Es gibt, ich mache es mal ganz konkret, es gibt 50 Leute. 50 Leute haben ihre Datensätze. 01:06:27.161 --> 01:06:29.300 Diese Datensätze werden pseudonymisiert. 01:06:29.561 --> 01:06:32.361 So und jetzt von dem was ich von Bianca verstanden habe ist folgendes, 01:06:32.451 --> 01:06:37.561 wenn ich diese Datensätze verrausche, dann wird es schwieriger aus diesen 50 Leuten 01:06:37.561 --> 01:06:42.361 auf die konkreten 50 Einzelpersonen zurückzukommen. Nein, das sollte unmöglich sein sogar. 01:06:42.480 --> 01:06:44.757 Okay, so jetzt ist meine Frage folgende. 01:06:44.964 --> 01:06:47.761 Es gibt diesen Datensatz und das Verrauschen habe ich so verstanden, 01:06:47.761 --> 01:06:56.973 Die einzelnen Datensätze werden verrauscht. Es gibt von diesen 50 Leuten 25, die sagen, wir wollen es verrauschen. Und die anderen 25 sagen, wir wollen es nicht. 01:06:57.955 --> 01:07:02.761 Die Frage ist... Achso, du willst die Leute spezifisch fragen. Wir müssen ihnen aber vorher erklären, was differential privacy ist. 01:07:02.761 --> 01:07:12.761 Genau. Und meine Frage ist jetzt, sinkt dadurch der Pseudonymisierungsschutz für die 25, die verrauschen wollen, weil die Gesamtmenge der Verrauscher kleiner wird? 01:07:12.761 --> 01:07:16.787 Dann ist deine Frage eigentlich nach der Skalierbarkeit. Differential Privacy hat zu tun mit der Menge der Daten. 01:07:17.161 --> 01:07:20.861 Die Güte der Verrauschung hat mit der Menge der Daten zu tun. Alles klar, danke. 01:07:20.861 --> 01:07:24.661 Aber du willst nicht ernsthaft, aber der Hintergrund der Frage ist, du möchtest Menschen, glaube, 01:07:25.159 --> 01:07:29.861 ich, schon gerne, wenn sie krank sind, willst du die wirklich mit einfachen Fragen beschäftigen? 01:07:29.861 --> 01:07:34.361 Du willst doch nicht jemanden, der gerade eine Krankengeschichte hat, mit wirklich technisch 01:07:34.361 --> 01:07:38.961 anspruchsvollen Fragen irgendwie belästigen, oder? Also ich würde es nicht wollen. 01:07:38.961 --> 01:07:42.461 Stopp, ich hatte euch so verstanden, dass das ein Ziel ist, dass es dich aus dem Akküren geht. 01:07:42.461 --> 01:07:43.632 Nein, nein, nein. Das war's. 01:07:44.397 --> 01:07:49.357 Bjarke, ich hatte dich so verstanden. Ne, andersrum. Ich muss nochmal erklären, wie das eigentlich in der Praxis funktionieren können soll. 01:07:49.527 --> 01:07:53.767 Es gibt ja so diese einfachen Fragen, wo man möchte, möchtest du Forschung? Ja, nein. 01:07:53.895 --> 01:07:59.487 Aber das ist ja keine Ja-Nein-Frage, sondern es sind verschiedene Stufen, die man begehen kann. 01:07:59.487 --> 01:08:06.615 Also es gibt so diese Daten sind anonym, weil es sind zum Beispiel, die sind nur in Hunderterstücken irgendwie in Kohorten zusammengefasst. 01:08:07.011 --> 01:08:09.252 Da kann man dann davon ausgehen. Ich muss mal kurz erklären, was sind Kohorte? 01:08:09.367 --> 01:08:24.367 Quasi in eine Gruppe von Personen zusammengefasst nach irgendwelchen Eigenschaften. Also irgendwie Menschen im Alter von 50 bis 55, die alle irgendwie eine bestimmte Krankheit haben und so. 01:08:24.367 --> 01:08:32.867 Die in der Summe halt irgendwie eine Eigenschaft haben. Da ist die Wahrscheinlichkeit, dass du die Leute dann mit, das kann man dann irgendwie durchrechnen, wenn man so viele Parameter zumacht, 01:08:32.867 --> 01:08:40.187 relativ gering, dass du daraus irgendwie Menschen wiederfinden kannst. Also gehen wir mal davon aus, dass die Daten tatsächlich anonym sind. 01:08:40.187 --> 01:08:46.909 Da kann man ja sagen, okay, anonymität, anonym, Forschung an anonymen Daten finde ich total super, habe ich nichts dagegen, bin ich dafür. 01:08:47.107 --> 01:08:51.878 So, dann kann ja sein, dass man feststellt, okay, jetzt brauchen wir absurde Daten. 01:08:52.508 --> 01:09:00.027 Dann kann man jetzt zum Beispiel dann überlegen, okay, gibt es denn eine Möglichkeit, bei der es die Möglichkeit gibt, dass man, 01:09:00.027 --> 01:09:10.307 Also zum Beispiel möchte ich KI-Forschung auf meinen Daten haben, weil dann irgendwelche großen Modelle trainiert werden und irgendwie eine Million Daten zusammengefasst werden und daraus irgendwelche Dinge gefordert werden. 01:09:10.307 --> 01:09:12.305 Kann man sagen, möchte ich, ja, nein. 01:09:12.394 --> 01:09:22.547 Kann man halt noch tatsächlich auch in verschiedene Dinge gehen, also möchte ich die Daten wirklich in der reinen Form rausgehen oder möchte ich es nur verrauscht rausgeben, das kann man natürlich so unterteilen. 01:09:22.711 --> 01:09:31.533 Das Ganze funktioniert natürlich bei Differential Privacy und bei anderen Verfahren halt immer nur so bedingt, weil man dann feststellen wird, okay, man kann jetzt nicht beliebig Dinge miteinander kombinieren. 01:09:31.668 --> 01:09:42.237 Man kann nicht irgendwie die Anonymen kombinieren mit den Differential Privacy Nein Dingern und so, sondern man muss dann schon sehr unterteilen, wie viel Daten sind eigentlich von denen, die dann noch zustimmen, über. 01:09:42.547 --> 01:09:48.547 Das heißt, es macht keinen Sinn, sich Modelle auszudenken, wo es eine Abstufung gibt? 01:09:50.123 --> 01:10:08.973 Naja, doch, würde ich schon sagen. Also ich betrachte diese Methoden, von denen Differential Privacy nur eine ist, tatsächlich als Teil eines Straußes von Methoden. Und du wirst dir überlegen müssen, für welche Anwendungsfälle ist welche Technik die bessere. Du kannst nicht alles mit einer erschlagen. 01:10:09.216 --> 01:10:12.971 Aber das sollen sich die Gesetzgeber überlegen, nicht die Patienten. 01:10:13.286 --> 01:10:19.733 Nee, ich glaube nicht, dass man das erklären kann. Jetzt kommt man wieder zu dieser Forderung, die ich vorhin aufgestellt habe, zurück. 01:10:19.911 --> 01:10:29.093 Wenn wir Digitalisierung machen und wir die Convenience haben wollen, müssen wir sie trotzdem so machen, dass alle informationelle Selbstbestimmung ausüben kann. 01:10:29.093 --> 01:10:40.493 Und wenn ich jetzt anfange, Patientinnen die unterschiedlichen Prinzipien von Pseudonymisierung und die unterschiedlichen Abstufungen und die unterschiedlichen Vor- und Nachteile davon zu erklären, dann wird es schwierig. 01:10:40.493 --> 01:10:42.651 Ihr haltet das wirklich für praktisch Quatsch. 01:10:42.741 --> 01:10:55.911 Aber das heißt, das Ziel ist sozusagen schon, man muss pro Fall oder pro Kategorie sozusagen im Gesetzgebungsverfahren herausgearbeitet werden, was da die gute Lösung ist. Und für die Patientinnen geht es letztlich nur ums Opt-in. 01:10:56.028 --> 01:11:03.213 Naja, Bianca hat das jetzt an technischen Kriterien festgelegt, aber in der Realwelt gibt es ja noch ganz andere Forderungen. 01:11:03.213 --> 01:11:06.893 Manche sagen, also ich habe nichts dagegen, wenn das eine universitäre Forschung ist. 01:11:07.020 --> 01:11:12.533 Andere sagen, wenn da irgendwelche Tech-Konzerne oder so beteiligt sind, dann will ich es nicht mehr. 01:11:12.533 --> 01:11:16.093 Also das ist ja sehr unterschiedlich, wie der Wunsch ist von Patienten. 01:11:16.093 --> 01:11:21.133 Manche sagen, oh, wenn das Forschung für gesunde Kinder oder gegen Diabetes ist, dann ja. 01:11:21.133 --> 01:11:25.333 Also die haben ja ganz andere Kategorien, die sind eher semantisch und wir haben jetzt so technische Kategorien. 01:11:25.333 --> 01:11:28.580 Ich bin jetzt verwirrt, weil ich höre sozusagen... 01:11:29.238 --> 01:11:38.488 Ich glaube im 10-Minuten-Takt wechselseitig, die Patienten müssen nur Ja oder Nein sagen und die Patienten brauchen eine reichhaltige Auswahl. What is it? 01:11:38.488 --> 01:11:49.835 Also erstmal muss man vielleicht zu diesem EU-Gesetz nochmal, also zu diesem EU-Gesetz wird es auch ein technisches Implementierungswerk geben. 01:11:49.968 --> 01:12:05.733 Das heißt, in dem EU-Gesetz wird drinstehen, also jetzt als ganz plattes Beispiel, als Patientin habe ich das Recht, zuzustimmen oder darüber zu entscheiden, ob meine Daten für den europäischen Datenraum, nennen wir ihn jetzt einfach mal, verwendet werden. 01:12:06.102 --> 01:12:16.509 Das wäre ein einfaches Opt-in. Das wäre ein einfaches Opt-in. Und dann gibt es natürlich die Regelung zu dem europäischen Datenraum, also zu dieser sekundären Nutzung, die ja dann nochmal anders aussehen kann. 01:12:17.220 --> 01:12:30.968 So, und dann, also das wäre sozusagen das einfachste Szenario. Und dann hast du natürlich dieses Ja oder Nein. Was Constanze jetzt aber angesprochen hat, ist natürlich, dass die Gemengelage viel komplexer ist. 01:12:30.968 --> 01:12:39.653 Also wenn wir jetzt irgendwie annehmen, dass dieser europäische Datenraum wirklich nur für universitäre Forschung genutzt würde. 01:12:39.968 --> 01:12:45.919 Was nicht so sein wird, aber normalerweise. jetzt so wäre, dann wäre es ja auch relativ einfach diese Frage zu beantworten, weil ich, 01:12:46.688 --> 01:12:50.928 dann weiß, okay, das wird nur für universitäre Forschung genutzt, ich bin eigentlich grundsätzlich damit einverstanden. 01:12:51.752 --> 01:13:10.602 Fein. Aber das ist halt nicht die Gemengelage. Und das wird halt auch ganz schwierig sein, das wird glaube ich in der sekundären Nutzung, da wird Bianca mir sicherlich zustimmen, eine sehr interessante Frage sein, wer wie unter welchen Bedingungen Zugriff auf die Daten bekommt. Aber das ist eine Frage, die nochmal separiert ist. 01:13:10.602 --> 01:13:17.602 Die haben wir eigentlich noch gar nicht besprochen. Ich halte nur mal kurz fest, du hast die Sache hier verkompliziert, ja? Nicht wir. Also schau mal, nur mal auf den Hintern. 01:13:17.706 --> 01:13:24.442 Ich stelle hier nur einen Auftrag der Hörer, die später entscheiden sollen können, worüber 01:13:24.442 --> 01:13:25.782 sie entscheiden sollen können oder nicht. 01:13:25.782 --> 01:13:29.882 Und das ist ja auch hier wieder die Frage, der Sekundärmarkt sagt ja, okay, die Verwendung 01:13:29.882 --> 01:13:36.402 der Daten ist abhängig davon, wer dann Zugriff hat. Und das ist meine Frage wieder, knüpft ihr eine politische Forderung daran, dass in dem 01:13:36.402 --> 01:13:38.802 Gesetz steht, wer darauf Zugriff hat, und habt ihr da eine Präferenz? 01:13:39.176 --> 01:13:43.322 Oder ist das was, wo ihr sagt, nee, da müssen die Leute auch sagen können, wem sie ihre 01:13:43.322 --> 01:13:44.560 Daten zur Verfügung stellen wollen. 01:13:44.686 --> 01:13:54.422 Ne, dann sollten wir das mal konkret machen. Wir machen es mal in der deutschen Situation, wo es ja andererseits im europäischen Raum schon feststeht. Also in Deutschland ist es so, dass es Nutzungsberechtigte geben kann, die einen Antrag stellen müssen, an die Daten zu kommen. 01:13:54.422 --> 01:14:09.505 Und dann legen die auch gewisse plausible Daten dar. Und da kann man natürlich auch sofort politische Forderungen reinknüpfen, nämlich wie das Entscheidungsgremium, was über diese ja, nein Nutzungsberechtigten ja oder nein sagt, wie das besetzt ist etwa. 01:14:09.856 --> 01:14:16.482 Also wer soll da konkret drin sitzen? Wie viel Unabhängige müssen davon sein? Wie viel dürfen zum industriell-pharmazeutischen Komplex gehören? 01:14:16.482 --> 01:14:20.962 Welche sollten vielleicht, weiß ich nicht, Ethiker sein oder sonst irgendwie? Das sind ja viele ethische Fragen. 01:14:20.962 --> 01:14:27.762 Also da ist die Lösung, das sollen nicht die einzelnen Personen machen, die davon betroffen sind im Zweifelsfall, sondern da soll es ein Kontrollgremium geben, was unabhängig ist. 01:14:27.762 --> 01:14:35.082 Nee, das gibt es ja schon. Aber wie besetzt wäre dann zum Beispiel eine politische Forderung? Also zu sagen, wie soll es besetzt sein? Und wer ist da kategorisch raus? 01:14:35.082 --> 01:14:36.305 Aber das muss jetzt auch okay für euch. 01:14:37.205 --> 01:14:40.555 Also Sekundärmarkt wird über ein Kontrollgremium entschieden, wo die Besetzung... 01:14:40.555 --> 01:14:45.055 Naja, du musst es ja irgendwie praktisch machen. Du hast irgendwie den Datenblock und irgendeiner muss die Daten rankommen. 01:14:45.055 --> 01:14:50.055 Dafür musst du einmal den Zugriff geben, aber du musst natürlich auch entscheiden, was... 01:14:50.222 --> 01:14:55.055 Also fällt das unter die Regelung, die in meinem Gesetz steht, dieser Antrag zum Beispiel? 01:14:55.055 --> 01:15:00.055 Und ist das eine Institution, die in der Liste der Institutionen, die nutzungsberechtigt sind, dabei ist? 01:15:01.403 --> 01:15:07.570 A. Aber allein dieses Ding sozusagen, es gibt die Daten für die Sekundärnutzung und da 01:15:07.714 --> 01:15:10.333 gibt es ein Kontrollgremium, das als Konzept ist schon okay für euch? 01:15:11.531 --> 01:15:15.255 B. Ja, ich denke das ist eine praktische, sinnvolle Lösung. Ich fände das natürlich 01:15:15.255 --> 01:15:20.855 nicht sinnvoll, wenn da jetzt nun die Technikkonzerne und die kommerziellen Forschungskräfte sich 01:15:20.855 --> 01:15:23.775 die Klinke in die Hand geben. Die können natürlich eine Besetzung ordentlich… 01:15:23.775 --> 01:15:27.655 A. Und die Frage ist dann auch wieder, wie die Daten da hingekommen sind und dann darüber 01:15:27.655 --> 01:15:30.120 entscheidend entschieden wurden. Also das ist ja dann aber. 01:15:30.495 --> 01:15:34.095 Da weiß ich jetzt praktisch in Deutschland ehrlich gesagt nichts drüber. Genau, aber. 01:15:34.095 --> 01:15:38.655 Ich hänge ja die ganze Zeit am Kopf an diesem einen grundsätzlichen Problem. 01:15:38.655 --> 01:15:44.335 Wer also als als einzelner Mensch sozusagen wie entscheide ich über meine Daten. 01:15:44.335 --> 01:15:48.846 Jetzt ich lerne jetzt also es soll für mich als einzelnen Menschen ist es sozusagen von. 01:15:49.255 --> 01:15:53.295 Euch aus gesehen eine gute Lösung opt in zu machen und dann über andere Dinge. 01:15:53.295 --> 01:16:00.295 Das soll nicht automatisiert per Default entschieden werden, sondern das soll auch entschieden werden, aber nicht von mir, sondern von einem Kontrollgremium. 01:16:00.295 --> 01:16:09.295 Könnte man sich ja so vorstellen. Also mal angenommen, du bist eine Person, die ist dann nicht sehr sensibel, du bist vielleicht gesund, hast keine großen Issues und sagst dir im Prinzip habe ich kein Problem damit. 01:16:09.295 --> 01:16:12.295 Dann hast du ein einmalige Doctin und brauchst nie wieder dich damit beschäftigen. 01:16:12.295 --> 01:16:20.295 Könnte man sich vorstellen, eine Person, die zum Beispiel eine schwierige Gesundheitsgeschichte hat oder sensibler ist an diesem Punkt, trifft halt vielleicht differenziertere Entscheidungen. 01:16:20.295 --> 01:16:24.535 Also nicht ein einmalige Doktrin, war das wieder kompliziert? 01:16:24.535 --> 01:16:30.615 Achso, nicht einmal, also… Also du kannst halt zum Beispiel sagen, keine Ahnung, die Daten von allen meinen Zahlenarztbesuchenden 01:16:30.615 --> 01:16:34.604 finde ich irgendwie nicht so besonders sensibel, die sollen sie immer in die Cloud schieben. 01:16:34.685 --> 01:16:41.575 Aber wenn ich beim Frauenarzt war, finde ich es vielleicht nicht so lustig, wenn sie irgendwie 01:16:41.575 --> 01:16:44.935 die Ergebnisse meines Abstrichs übermitteln. 01:16:44.935 --> 01:16:47.655 Liebe Hörerinnen, bitte schreibt mal in die Kommentare, ob ich verrückt bin, weil ich 01:16:47.655 --> 01:16:57.514 Ich höre hier wirklich wechselweise, dass die Leute sagen, Opt-in, einmal und mehr will ich nicht gefragt werden und es braucht eine reichhaltige Auswahl. Ich komme nicht mehr hinterher. 01:16:57.655 --> 01:17:08.398 Also ich glaube es gibt zwei Fragen in dieser eben Gesetzgebungsdebatte und auch mit den Abgeordneten ist die ganz grundsätzliche Frage, Opt-in, ja oder nein. Ja. 01:17:08.655 --> 01:17:15.655 So, das ist ein großer Diskurs, den wir gerade führen. Also nicht jetzt nur wir, sondern auch wirklich in den Ausschuss und Parlament. 01:17:15.655 --> 01:17:21.255 Geführt wird. Und dann, wenn du Opt-in machst, kannst du ja auch immer sagen. 01:17:22.847 --> 01:17:35.897 Opt-in für bestimmte Daten, so, weil die werden, also du, also ein total nervig, wäre ein total nerviges Konzept, das ist so ein bisschen wie mit Cookie-Bannern, wenn du bei jedem Arztbesuch von deinem Arzt gefragt werden würdest, schau ich dir kurz. 01:17:35.897 --> 01:17:40.087 Sie hat Cookie-Banner gesagt, du warst ja die Nemesis. 01:17:40.474 --> 01:17:45.397 Tut mir leid. Da könnte man auch nochmal eine Hochphotosuppe senden, Cookie-Banner. 01:17:45.397 --> 01:17:48.315 Aber ich versuche, den Stotel in deinem Kopf zu bringen. 01:17:48.666 --> 01:17:52.957 Wir haben nur gesagt, wir sind pro Opt-in und wir wollen auch, dass es den Politikern 01:17:52.957 --> 01:17:59.090 ins Hirn prügelt, dass das so sein sollte. Und dann ist natürlich wieder die Frage, wie Opt-in? 01:17:59.180 --> 01:18:03.597 Und da kann es bei jedem Arztbesuch sein, dass er dich fragt und sagt, und? 01:18:05.005 --> 01:18:13.917 Willst du? Willst du? So? Oder du sagst von Anfang an, nö oder jo, immer alles. 01:18:14.979 --> 01:18:19.210 Das ist ja aber losgelöst von der technischen Frage, die du vorhin gestellt hast. 01:18:20.255 --> 01:18:25.317 Naja gut, die wird technisch komplizierter, wenn du... Die basiert halt darauf. 01:18:25.317 --> 01:18:31.039 Das ist ja noch eine technische Umsetzungsoption. 01:18:31.786 --> 01:18:39.465 Wie Privacy achieved wird und nicht … Die Frage hinter der Frage war ja, wie kompliziert kann man das opt-in machen? 01:18:39.708 --> 01:18:44.637 Ja, beliebig. Beliebig kompliziert. Frag mal die Cookie-Banner. Genau. 01:18:44.637 --> 01:18:50.637 Sie hat es schon wieder gesagt. Die Frage war, könnte das opt-in so kompliziert sein wie ein Cookie-Banner? 01:18:50.637 --> 01:18:57.637 Ich habe jetzt gelernt … Ich glaube, man kann es nicht pauschal beantworten. 01:18:57.637 --> 01:19:21.290 Also du kannst nicht nur sagen Forschung, ja, nein, sondern wir gehen uns mal auf Krankheitsbilder. Menschen, die zum Beispiel Krankheiten haben, die sehr stigmatisierend in der Gesellschaft geprägt sind, die haben wahrscheinlich ein sehr, sehr starkes Interesse, dass sie sagen, okay, meine stigmatisierende Krankheit möchte ich bitte nicht in meinen Forschungsdaten irgendwo hin kommunizieren, weil das ist stigmatisierend. Das ist aber etwas, was man anerkennen muss. 01:19:21.637 --> 01:19:39.348 Aber möglicherweise, ich unterbreche dich ungern, aber möglicherweise sind es gerade diese Personen, die sagen, Forschung über diese Krankheit, wenn ich zum Beispiel akzeptabel, also wenn es eine Möglichkeit gäbe zu sagen, hey, aber die Krankheit, die ich habe, da möchte ich, dass auch mit meinen Daten geforscht wird, könnte durchaus sein. 01:19:39.726 --> 01:19:56.837 Ja, aber wir können es hier jetzt auch nicht ausmachen, ob das jetzt für Menschen, die davon betroffen sind, gut oder schlecht ist, wenn sie da in die Forschung gehen. Aber wir merken, die haben da ein höheres Schutzbedürfnis, wenn sie Daten irgendwo geben würden. Und deswegen brauchen sie auch da mehr Eingriffsmöglichkeiten. 01:19:56.837 --> 01:20:13.597 Es gibt Menschen, die sind gesund, die sagen, okay, macht mit meinen Daten, was ihr wollt, das sind eh ganz normale Daten, ich falle nicht auf, aber Menschen, die jetzt zum Beispiel eine Krankheit haben, Krankheiten, die ein bisschen stigmatisierend in der Gesellschaft geprägt sind, die haben unter Umständen noch mal stärkeres Bedürfnis, ja oder nein zu sagen, bei bestimmten Merkmalen. 01:20:13.597 --> 01:20:19.237 Muss ich wieder fragen. Ja oder nein im Sinne von pro Arztbesuch oder ja oder nein im Sinne 01:20:19.237 --> 01:20:23.317 von ich will genau vorschreiben, wer daran darf oder wer nicht. 01:20:23.936 --> 01:20:32.347 Weil da hatte ich euch gerade so verstanden, es gibt Opt-in und das meinetwegen auch mehrfach und für alles andere gibt es ein Kontrollgremium, was den Zugang zu den Daten macht. 01:20:32.347 --> 01:20:39.787 Also man könnte ja zum Beispiel sagen, im Sinne von ja, ich möchte dir die Krebsforschung unterstützen, aber nur die Krebsforschung. 01:20:39.787 --> 01:20:45.787 Und zum Beispiel andere Themen im Bereich, wenn es um geschlechtliche Krankheiten geht, nicht. 01:20:45.787 --> 01:20:47.675 Weil das ist irgendwie für mich ein heikles Thema. 01:20:48.008 --> 01:20:54.715 Das sind ja schon mal Kriterien, die könnte man aufmachen. Das heißt, du hast zwar einen Opt-in zu Krebsforschung, aber nicht zu anderen Krankheiten. 01:20:55.606 --> 01:21:01.787 Und dann könnte es, ja. Du müsstest eben auch nicht Leute zwingen, sich für diese Bereiche zu entscheiden. 01:21:01.787 --> 01:21:08.787 Du könntest auch sozusagen darüber eine Ebene ziehen. Ja, nein. Und wer möchte, wird mehr auszudifferenzieren, der kann das tun. 01:21:08.787 --> 01:21:13.787 Es ist jetzt aber letztlich eine Möglichkeit, ein Raum, der so noch nicht existiert. Wir können uns den vorstellen. 01:21:13.787 --> 01:21:18.787 So eine Vorstellung gibt es auch, aber wie es tatsächlich praktisch kommen wird, wissen wir natürlich nicht. 01:21:18.787 --> 01:21:26.187 Und wahrscheinlich würde es eher nicht so ganz kompliziert sein, denn letztlich hängt da ja ein Rattenschwanz an technischer Umsetzung dran. 01:21:26.187 --> 01:21:35.387 Und auch ein Widerwillen dagegen, weil ja die Forschenden wissen, dass mit jeder Fragestellung in diesem, so zu sagen, Rhesum oder Bauben, den du da aufstellst, 01:21:35.387 --> 01:21:43.587 wird die Anzahl von den Leuten, die zustimmen, geringer. Und die wollen natürlich viele Daten haben, denn viele Daten sind halt auch raussagekräftiger in der Regel für die Ver- oder jedenfalls meistens. 01:21:43.850 --> 01:21:44.894 Für die Forschungsfragen. 01:21:45.650 --> 01:21:50.147 A. Na gut, ich lasse das jetzt einfach mal so stehen und frage nochmal nach der IT-Sicherheit. 01:21:50.224 --> 01:21:53.987 Das wurde vorher so angerissen. 01:21:54.175 --> 01:21:58.747 Ist das jetzt nur die banale Forderung, das muss schon möglichst sicher sein, wie die 01:21:58.747 --> 01:22:02.628 Daten verarbeitet werden oder gibt es da sogar konkrete Baustellen, die man sehen kann? 01:22:02.709 --> 01:22:04.420 Naja, also ich glaube... 01:22:06.067 --> 01:22:22.127 Aktuell gibt es halt noch, also wir wissen um alle Unfälle, die wir mit Gesundheitsdaten schon hatten, da gibt es genau, aber für das EHDS selber gibt es halt noch gar keine technische Lösung. 01:22:22.515 --> 01:22:39.318 Also es ist wirklich, das muss man sich wirklich immer noch mal vor Augen führen. Es wird ein Gesetz geben, das das vorschreibt und es wird zu diesem Gesetz eine technische Spezifikation geben, die dann sagt, wie das ganze Ding implementiert wird. 01:22:39.718 --> 01:22:49.318 Und da ist natürlich klar, weil es um hochsensible Daten geht, muss es ein besonderes, hohes IT-Sicherheitsschutzniveau haben. 01:22:49.318 --> 01:22:54.318 Die praktische Implementierung wird natürlich ja nicht drinstehen, das bleibt immer ein bisschen vage. 01:22:54.318 --> 01:23:05.318 In Deutschland gibt es das aber bereits, das existiert ja, das Forschungsdatenzentrum besteht, die Daten sind bereits da und die müssen natürlich auch ein Konzept dafür haben. 01:23:05.318 --> 01:23:08.318 Ist der Tresor da eher so Stahl oder Papier? 01:23:08.318 --> 01:23:13.035 Naja, ein Teil des Gerichtsverfahrens war natürlich auch darüber Informationen zu bekommen. 01:23:13.881 --> 01:23:19.178 A. Achso, stimmt. Die Frage vorher sozusagen, die Art und Weise wie die Daten da gesichert 01:23:19.178 --> 01:23:22.458 werden, ist die transparent? Kann man quasi den Quellcode sehen? 01:23:23.298 --> 01:23:26.818 B. Nö, die lassen sich auch nicht allzu gerne in die Karten gucken. Es war schon schwierig 01:23:26.818 --> 01:23:30.018 da überhaupt mal rauszukriegen, welche kommerziellen Dienstleister benutzen die und so. Also es 01:23:30.018 --> 01:23:32.543 ist jetzt nicht so, dass die begeistert waren, dass ihnen da jemand auf die Finger guckt. 01:23:33.119 --> 01:23:36.873 Und wir haben da auch ein relativ hohes Niveau. Das heißt, wir haben sofort gemerkt, da interessiert 01:23:36.918 --> 01:23:41.738 sich auch die Bundesregierung dafür, weil sie ja wissen, was daran hängt. Und da interessiert 01:23:41.738 --> 01:23:45.218 sich natürlich auch einige aus der Europapolitik dafür, weil eben parallel... 01:23:45.218 --> 01:23:48.218 Interessiert es sich an dem Gerichtsverfahren oder interessiert es sich an der Art und Weise? 01:23:48.218 --> 01:23:51.862 Ich hätte auch nicht gedacht, dass es so viele Stellungnahmen geben wird und so viele 01:23:52.098 --> 01:23:56.058 Sachverständige, die dazu hingezogen werden und Stellen, die dazu was sagen. 01:23:56.058 --> 01:23:59.778 Aber wer weiß denn was? Wir hätten nicht gedacht, dass es auf der Ebene des Sozialgerichts so dick kommt. 01:23:59.778 --> 01:24:01.674 Aber wer weiß denn was über die IT-Sicherheit? 01:24:02.934 --> 01:24:06.769 Wissen das nur die Firmen oder weiß die Bundesregierung auch, was da passiert? 01:24:06.859 --> 01:24:10.091 Oder ist die Bundesregierung so, ja, ja, die machen das schon? 01:24:10.470 --> 01:24:18.284 Nein, nein, die Bundesregierung ist natürlich beteiligt. Und wenn man sich das anguckt, dann sind ja auch staatliche Stellen involviert. 01:24:18.562 --> 01:24:22.284 Zum einen das Robert-Koch-Institut, was als Vertrauensstelle wirkt. 01:24:22.284 --> 01:24:27.169 Da ist noch ein Bundesinstitut dabei. Das sind ja sozusagen staatliche Behörden. 01:24:27.349 --> 01:24:31.553 Also das Forschungsdatenzentrum ist eine staatliche Institution. 01:24:31.784 --> 01:24:37.064 Das beantworte meine Frage nicht so richtig. Okay, was war dann die Frage? 01:24:37.064 --> 01:24:41.410 Habe ich wieder was nicht verstanden? Die Frage war, also da liegen irgendwo Daten. 01:24:41.986 --> 01:24:47.864 Ja, viele. Genau, da liegen irgendwo viele Daten und die liegen in einer Infrastruktur und die liegen 01:24:47.864 --> 01:24:49.071 in irgendeiner Art von Software. 01:24:49.639 --> 01:24:55.224 Wer von den ganzen Beteiligten, die du gerade genannt hast, weiß konkret, wie diese Infrastruktur 01:24:55.224 --> 01:24:56.824 aussieht und wie die Software aussieht? 01:24:56.824 --> 01:24:59.224 Wir haben jetzt ein paar Einblicke in diesem Gerichtsverfahren. 01:24:59.224 --> 01:25:09.224 Wussten wir vorher nicht. Aber natürlich mussten sich, also insbesondere das Forschungsdatenzentrum selbst, aber auch sozusagen das zuständige Ministerium auch äußern darin. 01:25:09.408 --> 01:25:16.224 Aber letztlich geht es glaube ich nicht unbedingt um so eine Form von praktischen IT-Sicherheitstest. 01:25:16.224 --> 01:25:22.224 Du willst natürlich nur so bestimmte Standards erfüllen und du willst nicht unbedingt in die konkrete Implementierung gucken. 01:25:22.224 --> 01:25:34.224 Aber es war schon interessant zu wissen, welche Dienstleister und so und offenbar hat der Vertreter des Forschungsdatenzentrums, der da ausgesagt hat, dann auch klar gemacht, die unglaublich krasse Verzögerung, die jetzt stattgefunden hat, 01:25:34.224 --> 01:25:41.224 weswegen das Verfahren auch rot, hat damit zu tun, dass ein Dienstleister offenbar nicht die Leistung gebracht hat, die sie erwartet haben, qualitativ. 01:25:41.224 --> 01:25:49.224 Also die haben auch Probleme bei der technischen Umsetzung, aber die weißt du natürlich nicht im Detail und es gibt doch keine Vorschrift, dass sie darüber transparent sein müssten. 01:25:49.224 --> 01:25:51.824 Sie haben auch so ein bisschen Ansatz Security by Obscurity. 01:25:51.824 --> 01:25:56.184 Man kann sagen, normalerweise ist hier im Chaos gerade eine Grundforderung, das muss 01:25:56.184 --> 01:25:57.398 muss alles irgendwie einsehbar sein. 01:25:58.407 --> 01:26:08.535 A. Natürlich, ich habe da eine gewisse Transparenzanforderung, die ist aber finde ich eher gesetzlich festzuschreiben. Zu sagen, was die da offenlegen müssen. 01:26:09.354 --> 01:26:16.745 Ja klar, das fände ich jetzt für den europäischen Bereich natürlich genauso wichtig. Aber die haben vor allen Dingen jetzt Probleme bei der Abgabe der Daten. 01:26:16.977 --> 01:26:22.577 Also es gibt noch keine Form, wie sie da irgendwie einen Zugriff schaffen können. Da sind sie also doch technisch dabei. 01:26:22.577 --> 01:26:30.577 Das stimmt, ja. Vielleicht verschicken sie dann Faxe, auf denen der Code ausgedruckt ist und dann hat Bianca wieder was zu tun. 01:26:30.577 --> 01:26:39.493 Praktisch muss man sich das ungefähr so vorstellen, dass diejenigen, die dann eine Nutzungsberechtigung erhalten, also zum Beispiel ein Forschungsinstitut oder ein Unternehmen in der Gesundheitsberichterstattung oder sowas, 01:26:39.577 --> 01:26:48.469 die kriegen dann quasi ein Interface auf bestimmte Arten von Daten. Also die kriegen sozusagen Zugriff remote. So läuft das praktisch. 01:26:48.577 --> 01:26:55.238 A. Da freuen sich wahrscheinlich die Menschen von Zerforschung dann nochmal zu gucken. B. Also gut. 01:26:55.577 --> 01:27:04.547 A. Ich nehme an gewisse laissez-faire war in der Frage sozusagen, das ist aber schon eine grundlegende Sache auch, dass das irgendwie gut funktioniert. 01:27:04.591 --> 01:27:10.577 B. Absolut grundlegend, das ist auch Kern des Verfahrens, aber man muss immer noch sagen, das ist ein Gerichtsverfahren. 01:27:10.577 --> 01:27:13.857 Das heißt, letztlich werden da rechtliche Fragen entschieden und die Frage, die hier 01:27:13.857 --> 01:27:17.258 vom Berliner, in meinem Fall, vom Berliner Sozialgericht entschieden wird, wird genau. 01:27:17.697 --> 01:27:20.535 Die sein, ob sie es vorlegen zum EuGH oder nicht. 01:27:20.777 --> 01:27:25.657 Und selbstverständlich streben wir an, auf dieser Ebene zu debattieren, weil das dann 01:27:25.657 --> 01:27:28.857 Auswirkungen hat, auch auf dem europäischen Gesundheitsdatenraum. 01:27:28.857 --> 01:27:36.417 Denn ich glaube, diese Vorstellung, dass man hintenrum, quasi ohne dass die Leute damit 01:27:36.417 --> 01:27:43.497 zu tun haben, die die Datengeber sind, diese Daten sammeln kann und für Forschungszweige freigeben kann, halte ich für falsch. 01:27:43.923 --> 01:27:50.097 Ich glaube, dass dieses Widerspruchsrecht in irgendeiner Form darin festgeschrieben werden muss. Und die Dreistigkeit, mit der sich der deutsche 01:27:50.097 --> 01:28:00.857 Gesetzgeber da irgendwie auch an den ziemlich deutlichen europarechtlichen Regelungen vorbeimogelt, finde ich schon dreist. Also, ich weiß natürlich nicht, wie das 01:28:00.857 --> 01:28:04.377 ausgeht vor Gericht und Horazé und so, ihr wisst ja, aber ich gehe davon aus, dass ein 01:28:04.377 --> 01:28:07.022 weil ein Teil davon so rechtlich nicht haltbar ist. 01:28:07.995 --> 01:28:12.377 Okay, ich möchte das als gute letzte Worte stehen lassen. Nein, eine Sache muss ich noch mal sagen, 01:28:12.377 --> 01:28:13.981 weil ich in diesem Gerichtsverfahren gelernt habe. 01:28:14.377 --> 01:28:19.377 Ich weiß nicht, ob euch das aufgefallen ist, aber die privaten Krankenkassen sind immer raus. 01:28:19.377 --> 01:28:24.377 Und die ganze Argumentation von diesen Forschenden, die immer sagen, ey, wir müssen alles haben, 01:28:24.377 --> 01:28:28.358 und wenn da auch nur 0,2% verrauscht ist, können wir nicht mehr forschen, 01:28:28.772 --> 01:28:31.158 die fällt weg, wenn es an die Privatpatienten geht. 01:28:31.455 --> 01:28:39.977 Die sind da draußen, an denen brauchen wir nicht forschen. Damit karikiert sich für mich immer dieser ganze Tohuwa-Bohu, den die machen, um... 01:28:39.977 --> 01:28:43.657 Wir brauchen jedes Datum, sonst können wir nicht forschen. Das riecht mich immer so auf. 01:28:43.657 --> 01:28:46.164 Entschuldigung. Wir wissen, dass die da eh nicht rankommen, oder? 01:28:47.172 --> 01:28:51.122 Fragst du mich jetzt ernsthaft, weil der politische Grund ist, warum die privaten Krankenkassen 01:28:51.122 --> 01:28:51.980 daran nicht beteiligt sind? 01:28:52.753 --> 01:28:57.842 Nee. Gut. Ich frage dich nach deiner Interpretation, warum die Forschenden das nicht fordern. 01:28:58.398 --> 01:29:00.842 Vielleicht fordern sie das in diesem Gerichtsverfahren. 01:29:00.842 --> 01:29:07.202 Vielleicht gehen sie auch einfach den Weg des geringsten Widerstandes. 01:29:07.202 --> 01:29:13.802 Ja, also wir haben eine gesünderliche Zweiklassensysteme, darüber brauchen wir hier nicht zu reden. 01:29:14.143 --> 01:29:17.282 Also wenn ich mich jetzt versuche, mich reinzusetzen in die Rolle des Forschenden, der also fordert 01:29:17.282 --> 01:29:21.202 also keine verrauschten Daten und all das Ding, dann wäre natürlich eine meiner Kernforderungen, 01:29:21.202 --> 01:29:26.362 dass die privaten Kassen auch gezogen werden. Also schon alleine nur für meine eigene Glaubwürdigkeit. 01:29:26.666 --> 01:29:32.482 Aber das scheint nicht. Das und auch, weil dir klar sein muss, dass das Sample an Leuten, also die Menschen, die 01:29:32.715 --> 01:29:35.263 in der privaten Krankenkasse sind, auch andere Daten sind. 01:29:35.362 --> 01:29:41.962 Die sind im Schnitt gesünder und älter. Also du kannst auch ganz klar sehen, dass es dadurch eine medizinische Verzerrung geht, 01:29:41.962 --> 01:29:44.129 dass du diese Millionen Datensätze nicht hast. 01:29:44.242 --> 01:29:47.962 Du kannst die ganze Argumentation, die die da immer bringen in den langen Stellungnahmen, 01:29:47.962 --> 01:29:52.034 total ad absurdum führen, wenn du sagst, private Krankenkassentaten. 01:29:52.321 --> 01:29:56.962 Aber ihr wisst, wir wollen jetzt auch nicht immer das Gesundheitssystem umgrenzen raten. 01:29:56.962 --> 01:30:01.362 Das ist eine andere Sendung für eine andere Zeit. Aber anzünden scheint hier immer irgendwann gebracht. 01:30:01.362 --> 01:30:02.666 Bianca, letzte Worte? 01:30:03.043 --> 01:30:08.962 Oh, letzte Worte, keine Ahnung. Es gibt noch viel zu tun, sagen wir mal so. 01:30:08.962 --> 01:30:16.462 Das zählt wohl generell nicht, oder? Warte, ich hab irgendwann aufgehört zu fragen, was der nächste Schritt ist, weil das immer 01:30:16.462 --> 01:30:17.462 oft schwierig ist zu sagen. 01:30:17.555 --> 01:30:19.256 Es gibt aber welche. Okay, danke, gleich. 01:30:19.743 --> 01:30:25.702 Meine Lieblingsfrage ist aber, wann können wir uns wieder hier im Chaos Radio treffen? 01:30:25.702 --> 01:30:30.222 Also wann ist es angezeigt, sich hier wieder zusammenzusetzen, weil genug Neues passiert ist? 01:30:30.222 --> 01:30:32.222 Wie viele Jahre werden da vergehen? Oh nee, das glaube ich gar nicht mal. 01:30:32.222 --> 01:30:34.822 Ich glaube, das wird ganz schön zackig gehen. Aha, nämlich? 01:30:34.822 --> 01:31:00.062 Also, erst mal für den europäischen Bereich. Also genau, wenn sie so sind, wie sie sich das vorstellen, haben wir Mitte Juli die Abstimmung von dem Bericht in den Ausschüssen und im September die Abstimmung im Parlament und Anfang des Jahres, also Anfang nächsten Jahres, den Heiligen Trilog. 01:31:00.262 --> 01:31:01.549 Und dann treffen wir uns schon wieder? 01:31:02.729 --> 01:31:09.502 Naja, dann ist ja eine Entscheidung sozusagen, dann wissen wir wie katastrophal das Gesetz aussieht. 01:31:09.502 --> 01:31:13.502 Aber vielleicht wird es auch total toll. Genau, vielleicht wird es auch total gut, aber. 01:31:13.502 --> 01:31:17.542 Ich liebe das, ich liebe das, dass du nicht gesagt hast, dann gucken wir mal wie das Gesetz 01:31:17.542 --> 01:31:21.291 ist, sondern dann wissen wir welche Abstufung von katastrophal das Gesetz haben wird. 01:31:21.381 --> 01:31:23.839 Ich mag diesen Optimismus. Aber letzte Worte? 01:31:25.351 --> 01:31:32.262 Erstmal wollte Constanze was zu der Timeline sagen. Nein, wollte ich nicht. Sollte ich was zu den Themen sagen? 01:31:32.262 --> 01:31:41.808 Nein, nein, also okay. Dann auch hier, wir haben jetzt eine gewisse Aufmerksamkeit der Presse. 01:31:42.896 --> 01:31:48.748 Was ist in 2024, das ist meine Lieblingsfrage. Jetzt generell? 01:31:48.946 --> 01:31:58.007 Du meinst EU-Wahlen? EU-Wahlen. Es ist immer ein super Thema, um mit seinen Abgeordneten ins Gespräch zu kommen und auch 01:31:58.007 --> 01:32:03.267 mal vorsichtig anzumerken, dass man ein bisschen wenig damit einverstanden ist, wie das gerade 01:32:03.267 --> 01:32:04.267 mit den Gesundheitsdaten. 01:32:04.267 --> 01:32:08.567 Also, warte, stopp, um jede Subtilität zu vermeiden an dieser Stelle. 01:32:08.567 --> 01:32:12.967 Du sagst den HörerInnen gerade, wenn EU-Wahlkampf ist, dann geht doch mal zu Eugen. 01:32:12.967 --> 01:32:24.567 Nein, nein, nein. Ja, auch. Aber das wäre nur sinnvoll, wenn sich die Mache des Gesetzes so weit an den EU-Wahlkampf ranklatschen würde, dass das ein Hebel ist. 01:32:24.567 --> 01:32:35.344 Aber ganz generell kann man ja auch mit seinen Abgeordneten sprechen, wenn kein Wahlkampf ist und sagen, ich entscheide, die Wahl ist nah genug dran. 01:32:35.447 --> 01:32:41.447 Es würde schon mein Wahlergebnis oder das Ergebnis meiner Wahl, die ich da treffe, beeinflussen und wir als… 01:32:41.447 --> 01:32:43.734 Wie willst du eigentlich abstimmen? 01:32:44.130 --> 01:32:48.829 Ja, oder mir ist es voll wichtig, dass ich selber über meine Gesundheitsdaten bestimmen kann. 01:32:49.073 --> 01:33:01.189 Aber trotzdem sozusagen als EU-Auskennerin, glaubst du, die geben sich jetzt Mühe mit dem Gesetz, um es noch möglichst vor der Wahl fertig zu machen, oder glaubst du, es wird eher sozusagen, ah, das ist nicht mehr unser Bier, lass mal nach der Wahl machen? 01:33:01.585 --> 01:33:03.447 Das ist eine sehr gute Frage. 01:33:04.115 --> 01:33:17.241 Es gibt tatsächlich eine Tendenz der Kommission dazu, kontroverse Gesetzgebungen nahe an EU-Wahlen ranzulegen, weil sie sie dann in der Regel leichter durchbekommen. 01:33:17.637 --> 01:33:20.447 Weil ja alle wissen, dass da eine gewisse Deadline ist. 01:33:20.447 --> 01:33:31.167 Genau, und dieses Panik-Narrativ von ohne diese Daten sterben Menschen ist natürlich sehr gut geeignet, um damit irgendwie zu polarisieren und. 01:33:32.733 --> 01:33:47.326 Wähler in Panik zu versetzen. Und diese Moralpanik, die da entsteht, nutzt die Kommission häufig halt, um bestimmte Gesetze reinzupipen. Also das ist gar nicht so unnormal, dass sie das tun. 01:33:47.632 --> 01:33:56.583 Also, liebe Patientinnen, aufgemerkt auf den Jahresanfang. Ich sehe hier im Vorbereitungsdokument, ahja, liebe Chaos-Radio-Hörerinnen, es gibt Vorbereitungsdokumente. 01:33:56.583 --> 01:34:04.322 Das wird wohl jeder Hörer ja mittlerweile wissen, oder? Ja, das ist nicht so selbstverständlich. Aber hier steht noch eine Terminankündigung. 01:34:04.872 --> 01:34:10.583 Ja, eine Terminankündigung. Genau, ihr habt keine Terminmusik. 01:34:10.583 --> 01:34:19.583 Ganz anderes Thema, aber trotzdem ein wichtiges Thema zum Thema, ruft eure Abgeordneten an. 01:34:19.869 --> 01:34:38.703 Wo ich sie gerade schon mal am Telefon habe. Genau, aber es ist tatsächlich so, dass im Juni, am 14. Juni, die Innenministerkonferenz in Deutschland startet und es ist auch nach wie vor so, dass es keine vollständig fertige Position der deutschen Bundesregierung zur Chatkontrolle gibt. 01:34:38.703 --> 01:34:41.934 Hören Sie dazu die Chaos Radio Sendung, die drei Folgen alt ist? 01:34:42.249 --> 01:35:01.441 Ja, und deswegen wird es eine Demo zur Innenministerkonferenz geben am 14. Juni, wo wir nochmal den Innenministerinnen der Bundesländer sehr deutlich machen werden, was das Problem ist und was wir dagegen haben und alle Menschen, die in Berlin sind. 01:35:01.567 --> 01:35:07.401 Weitere Informationen folgen. Es ist tatsächlich relativ schwer herauszufinden, wo die Konferenz genau stattfinden wird. 01:35:07.463 --> 01:35:08.292 I wonder why. 01:35:08.473 --> 01:35:12.109 Aber es gibt einen special guest. 01:35:12.533 --> 01:35:23.463 Bei der Innenministerkonferenz oder auf der Demo? Auf der Demo auch vielleicht, aber bei der Innenministerkonferenz wird die Person, die dieses Gesetz verzapft hat, nämlich Ilva Johansson, auch da sein. 01:35:23.463 --> 01:35:29.463 Weil der nämlich langsam alle ihre Fälle wegschwimmen und sie ein bisschen Angst hat, dass das mit der Chatkontrolle doch nicht so klappt wird. 01:35:29.463 --> 01:35:35.290 Deswegen ist es umso wichtiger, deutlich zu machen, dass die Gesellschaft ordentlich was gegen dieses Gesetz hat. 01:35:35.488 --> 01:35:39.463 Und wem folgt man wo, um genau rauszufinden, wann diese Demo ist? 01:35:39.463 --> 01:35:42.366 Wir packen dann, wir haben doch Shownotes und packen da links hin. 01:35:42.492 --> 01:35:44.175 Okay, sehr gut. So machen wir das. 01:35:44.463 --> 01:35:46.463 Dann vielen lieben Dank. 01:35:47.362 --> 01:35:52.872 Dass sie hier wart und das erklärt, ich wollte gerade sagen, ich kann nicht mich für einen optimistischen Ausdruck bedanken, ich glaube nicht, aber es wäre ja auch cool. 01:35:53.142 --> 01:35:58.894 Ich hätte noch irgendwie so Timelines, angenommen dieses Thema wird verabschiedet, dann gibt es genau zwei Jahre, um es zu implementieren. 01:35:59.002 --> 01:36:10.412 Nochmal was? Das ist ja Scheinzeigerwitz eigentlich. Okay, also Leute, jetzt müsst ihr ja, da könnte ich euch nicht weg. Erstens, meinst du jetzt Chat-Kontrolle oder Gesundheitsdaten? 01:36:10.412 --> 01:36:11.534 Gesundheitsdaten, Ram. 01:36:11.705 --> 01:36:15.774 Wieso zwei Jahre? Weil das halt typische EU-Vorgehensweise ist. 01:36:16.295 --> 01:36:19.860 Das ist wirklich unglaublich ambitioniert. 01:36:20.796 --> 01:36:23.112 In dem Gesetz steht drin, das soll innerhalb von zwei Jahren... 01:36:23.112 --> 01:36:26.783 Das Gesetz tritt in Kraft und die Umsetzung muss dann in zwei Jahren in Kraft gehen. 01:36:27.134 --> 01:36:30.717 Aber was der Unterschied ist... Und da lacht ihr drüber, weil das ist total illusorisch, oder? 01:36:31.112 --> 01:36:37.171 Das ist wirklich sehr, sehr ambitioniert. Das ist unglaublich. Also das wäre echt ein Rekord. 01:36:38.112 --> 01:36:49.112 Also ich meine, umsetzen, es ist dann so, fertig. Ihr seid tief im Thema drin und könnt darüber lachen, aber alle anderen denken sich, nein dann stellen die halt, dann bieten die halt irgendwie so ein bisschen Cloud, das wird schon ganz gut gehen. 01:36:49.112 --> 01:36:57.112 Ich sag da immer irgendwie Gematik und Deutschlandgesundheitswesen und Digitalisierung, dann wissen eigentlich alle, was das irgendwie für ein Dekadenprojekt ist. 01:36:59.112 --> 01:37:04.112 Nerds lachen an sich hinein. Ich glaube, was sie sagen wollen, das ist alles sehr viel schwieriger, als man glaubt. 01:37:04.112 --> 01:37:05.961 Wir werden es begleiten. Wir werden es begleiten. 01:37:06.249 --> 01:37:07.842 Was denn? Was ist ein realistischer Zeitrahmen? 01:37:09.454 --> 01:37:13.984 Naja, also wir haben ja schon ein bisschen über den Zoo gesprochen, da ist ja auch einfach 01:37:13.984 --> 01:37:19.384 eine Menge in den verschiedenen, unterschiedlichen Ländern an Voraussetzungen unterschiedlich. 01:37:19.384 --> 01:37:22.165 Und wir haben einen hohen Anspruch an die IT-Sicherheit. 01:37:22.723 --> 01:37:26.184 Und du hast aber gleichzeitig die ganzen Fragen der Stelle stehen, du willst es ja auch bedienbar 01:37:26.184 --> 01:37:27.184 halten und so weiter. 01:37:27.539 --> 01:37:31.184 Aber was ist deine Jahreszahl? Fünf. Mindestens. Okay. 01:37:31.184 --> 01:37:34.504 Schauen wir mal, ob wir vorher eine neue Chaos-Reite-Sendung hinkriegen. 01:37:34.504 --> 01:37:38.344 Die nächste Folge Dicke Bretter, weil zwei Nudeln hier sind. 01:37:38.344 --> 01:37:42.907 Wir nehmen die schon über morgen auf, wir kommen aber mit der Produktion dann erst. Und zum Thema? 01:37:42.970 --> 01:37:46.831 Wir werden, naja, hat ja Khaleesi jetzt schon ein paar Mal gesagt, wir reden auf jeden Fall davon. 01:37:47.144 --> 01:37:51.024 Das war auch eine goldene Brücke dafür. Wie entstehen eigentlich diese Richtlinien und Verordnungen in Europa? 01:37:51.024 --> 01:37:52.024 Am Beispiel der? 01:37:52.709 --> 01:37:58.304 Chatkontrolle. Und vor allen Dingen, deswegen haben wir, das würden wir dann auch erfahren, was ist 01:37:58.304 --> 01:38:00.613 eigentlich der Unterschied zwischen einer Richtlinie und einer Verordnung? 01:38:00.864 --> 01:38:03.864 Das ist ja noch easy playing, wir machen das, das wird richtig. 01:38:03.864 --> 01:38:10.104 Okay, das könnt ihr dann. Das macht doch Spaß. Ich meine, darüber wissen viele wenig, aber das ist sicherlich interessant, das förmt unser Leben. 01:38:10.104 --> 01:38:11.515 Wir brauchen mehr EU-Nerds. 01:38:12.686 --> 01:38:18.123 Oh, echt? Okay, also wenn ihr wissen wollt, was das bedeutet und warum, dann einfach die nächste Folge hören. 01:38:18.186 --> 01:38:20.032 Also so wie uns, nicht so wie die. 01:38:20.283 --> 01:38:26.144 Bleiben sie in diesem Feed, bleiben sie uns gewogen, empfehlen sie uns weiter. 01:38:26.405 --> 01:38:29.790 Ich will jetzt gar nicht mehr diskutieren, ob das jetzt die richtige Wahl ist. 01:38:30.186 --> 01:38:33.130 Ich sag gleich noch was, aber vorher hat Khaleesi noch einen Musikwunsch? 01:38:34.345 --> 01:38:40.144 Ja, passend zu dem ganzen Thema hier, Bianca, kannst du vielleicht raten, wünsche ich mir 01:38:40.144 --> 01:38:43.707 natürlich Data Breach von Systemabsturz. 01:38:44.401 --> 01:38:47.155 Sehr gut, dann viel Spaß dabei. Systemabsturz ist immer gut. 01:38:47.245 --> 01:38:51.215 Ich kann nur eine Sache sagen, lasst euch nicht überwachen und verschlüsselt immer schön eure Backups. 01:38:51.440 --> 01:41:59.390 Music.