Wie schützt uns IT-Sicherheit vor Hackerangriffen?

22. Juli 2020, mit Sven Weizenegger

Dieses Transkript wurde maschinell erstellt. Wenn dir ein Fehler auffällt, schreib uns gerne zu diesem unter redaktion@digitalkompakt.de.

Sven Weizenegger: Hallo und herzlich willkommen zu einem Hackers Podcast von Digital Kompakt. Mein Name ist Sven Weinzenegger, ich bin Mitgründer und CEO von SUSA Technologies und heute sprechen wir darüber, ob KI hackbar ist. Du lernst heute etwas über die Stiftung Neue Verantwortung kennen, die Bedeutung von KI im Kontext von Cybersecurity, wie kann man eigentlich KI hacken und vor allem, wie kann man KI auch sicher machen. Und dazu haben wir einen ganz tollen Gast, den ich seit einigen Jahren schon kenne, das ist der Sven Herbig von der Stiftung Neue Verantwortung, der uns als Experte mal Einblick gegeben wird in das Thema KI und Cybersecurity und welche Bedeutung das Thema letztendlich hat. Und ja, lieber Sven, schön, dass du hier bist. Ja, ich bin Sven Herpig.

Sven Herpig: Ich leite bei der Stiftung Neue Verantwortung den Bereich internationale Cybersicherheitspolitik, den ich Anfang Januar 2017 ins Leben gerufen habe mit meinen Kolleginnen. Und ich war vorher tätig auch im Cybersicherheitsbereich in Deutschland. Ich habe IT-Sicherheit gemacht beim Auswärtigen Amt und war danach eher so in der Politikbereich tätig beim Bundesamt für Sicherheit in der Informationstechnik. Aber jetzt bin ich mittlerweile mal wieder länger als ich will an einer Stelle und das ist nämlich die Stiftung Neue Verantwortung. Die Stiftung Neue Verantwortung ist, wie der Name sagt, keine Stiftung, es ist ein gemeinnütziger Verein. Und was wir machen ist, wir gucken uns Themen an, die an der Schnittstelle zwischen Technik, Politik und Gesellschaft sind und erarbeiten dann Analysen und bereiten die auf für die Öffentlichkeit und für die Politik. Wir arbeiten unter anderem in den Bereichen Überwachung und Überwachungskontrolle, Desinformation, Propaganda und digitale Öffentlichkeit, künstliche Intelligenz oder eben auch IT-Sicherheit und Cybersicherheit. Und hauptsächlich fungieren wir so ein bisschen, wie man das von einem vielleicht amerikanischen Think Tank Modell kennt. Also wir schreiben Papiere, wir bringen Leute in Workshops zusammen und bringen dann die Produkte nach außen für jeder Mann und jede Frau zugänglich im Internet. Was uns unterscheidet von amerikanischen Think Tanks ist, dass wir einen Großteil unseres Fundings eben nicht von Firmen bekommen, sondern von philanthropischen Organisationen wie der Robert-Bosch-Stiftung und eben auch einige Projekte haben, zum Beispiel für die Europäische Kommission.

Sven Weizenegger: Du hast ja, bevor wir ins Thema einsteigen, gestern, glaube ich, einen interessanten Twitter-Post losgelassen. Du hast ja geschrieben, es ist mein Job, die deutsche Sicherheitspolitik zu analysieren, mit eigenen Policy-Vorschlägen und offener Politikkritik. Bin ich gut darin? Keine Ahnung, aber ich nehme meinen Job ernst. Wie kam das zu dem Posting? Das fand ich sehr verwunderlich. Ist da was vorgefallen?

Sven Herpig: Wenn man sich das so anschaut, wird man oft dafür dann kritisiert, dass man selber nur kritisiert. So, eigentlich ist unser Job ja, Vorschläge zu machen. Wir sind ein Think Tank und wir machen Policy-Vorschläge. Das machen wir auch öfters, aber in meinem Bereich, im cybersicherheitspolitischen Bereich, fühlt man sich manchmal so ein bisschen in die Reaktive gedrängt, nämlich wenn neue Gesetzesvorschläge rauskommen, wenn neue Plattformen gegründet werden, neue Institutionen gegründet werden, zum Beispiel vom Internet. Im Innenministerium in Deutschland liest man sie sich durch und sagt, wow, das hätte ich komplett anders gemacht. Dann fängst du an, das zu kritisieren, schreibst Analysen, verteilst sie und irgendwann hast du das Gefühl, dass du immer so nur in die negative und reaktive kommst, obwohl wir eigentlich auch viele gute, positive und produktive Vorschläge machen. Und ich wollte das einfach nochmal klarstellen.

Sven Weizenegger: Du hast auch so ein Bild, das sehe ich manchmal bei Vorträgen bei dir, wo ganz viele Kästen sind mit ganz vielen Verlinkungen zu, ich glaube, Cyberorganisationen oder Vereinen. Was hat das damit auf sich? Ist das was typisch deutsches anscheinend, weil die wirkt sehr überladen? Es scheint ja sehr viele Player zu geben im Cybersecurity-Bereich. Was hat das damit zu tun?

Sven Herpig: Ja, ich habe in meiner Zeit, also damals sogar noch, als ich bei den Behörden gearbeitet habe, festgestellt, dass viele, die dort arbeiten, gar nicht wissen, wer alles in Deutschland noch auf der Behördenseite Cybersicherheit macht oder verschiedene Aspekte der Cybersicherheitspolitik in Deutschland betreut. Und da war dann damals so ein bisschen die Idee gewachsen, okay, wenn ich das nicht weiß und die meisten anderen das nicht wissen, dann sollte man das vielleicht mal aufschreiben und irgendwie visualisieren. Aber es hat dann gedauert, bis ich zur Stiftung Neue Verantwortung kam und da auch ein bisschen Platz und Raum hatte, um das Thema weiter zu bearbeiten. Habe dann mit meinen Kolleginnen damals angefangen, das Ganze zu visualisieren und mittlerweile ist daraus ein relativ großes Diagramm geworden, was die Länderebene abbildet, die Bundesebene abbildet und auch die europäische Ebene abbildet, wo alle Institutionen drauf sind, die staatlich sind und die irgendwas mit Cyber-Sicherheit machen. Und gleichzeitig ist da noch ein 64-seitiges begleitendes Dokument bei, was beschreibt, wie die alle miteinander interagieren.

Sven Weizenegger: Braucht man denn so viele Organisationen zu dem Thema?

Sven Herpig: Ich glaube, ob man sie braucht oder nicht, ist eine andere Beurteilung. Was wir eigentlich mit der Grafik auch darstellen wollen, ist, hier sind alle, die was machen und was sie machen. Und wie das so in der Politik normalerweise ist, es kommt selten bis nie vor, dass irgendwelche Behörden, die es schon gibt, irgendwann wieder abgeschafft werden. Aber das Gute an der deutschen Cybersicherheitsarchitektur ist eigentlich, dass es ein, zwei, drei zentrale Organisationen gibt, wie zum Beispiel das Bundesamt für Sicherheit und Informationstechnik, auf operativerer Ebene und den Cybersicherheitsrat, nicht den Cybersicherheitsrat e.V., sondern den Cybersicherheitsrat auf strategischer Ebene, die diese ganzen Bindfäden zusammenbringen. Und ich glaube, das ist ein Merkmal, was wichtig ist in Deutschland und daher ist es ganz, ganz signifikant, dass diese Institutionen, diese Zentralen dann aber auch gut funktionieren.

Sven Weizenegger: Was plant ihr noch demnächst an Papern und Policy-Vorschlägen zu unterbreiten?

Sven Herpig: Also wir sind gerade aktiv in zwei Bereichen. Einmal im Bereich EU-Cybersicherheitspolitik, wo wir uns ein bisschen damit beschäftigen, wie kann die Europäische Union eine Resilienzstrategie fördern. Also über die Sicherheit hinaus, wie kann man sich damit beschäftigen auf europäischer Ebene, dass wenn Angriffe erfolgreich sind, zum Beispiel auf kritische Infrastrukturen, wie man damit umgeht, dass diese kritischen Infrastrukturen wie Stromnetze schnell wieder ans Laufen kommen. Und gleichzeitig auch, wie die EU mit den USA und mit Japan vielleicht zusammen irgendwie auf internationaler Ebene das vorantreiben kann. Und zum anderen beschäftigen wir uns weiterhin mit dem Bereich Cybersicherheit von künstlicher Intelligenz oder, wenn man es technisch haben will, IT-Sicherheitsaspekte von maschinellem Lernen. Es gibt halt diese Angriffe, es gibt viel wissenschaftliche Literatur dazu, aber wir wollen uns angucken, was ist der Reality-Check? Was davon kann wirklich passieren? Welche Auswirkungen hat das? Und dann eben auch, was für Handlungsempfehlungen müssen wir der Politik hier an die Hand geben?

Sven Weizenegger: Ja, das ist ein sehr guter Übergang. Es gab ja dieses transatlantische Cyberforum, wo ich auch eingeladen wurde, was sehr beeindruckend war, weil da sehr viele Experten am Tisch saßen. Wieso gerade dieses Thema aktuell? Was ist daran so wichtig aus deiner Sicht?

Sven Herpig: Das transatlantische Cyberforum haben wir 2017 ins Leben gerufen. Das ist im Grunde genommen ein Expertinnen-Netzwerk aus mittlerweile knapp über 150 Expertinnen aus der Industrie, der Zivilgesellschaft und der Wissenschaft, die sich mit verschiedensten Themen der Cybersicherheit beschäftigen. Wir haben dabei Hackerinnen, wir haben Juristen dabei, Industrievertreter, alles Mögliche. Und was wir machen ist, wir gucken uns an, welche Themen aktuell auf beiden Seiten des Atlantiks relevant sind im Bereich Cybersicherheit, setzen dazu eine Arbeitsgruppe auf von 30 bis 45 Expertinnen und die erarbeiten dann in Online-Kollaborationen und durch Workshops Handlungsempfehlungen, die wir dann in die Politik auch übersetzen. Transatlantisch haben wir es aufgebaut, weil wir gesagt haben, Deutschland in Europa ist ein wichtiger Akteur, der die europäische Landschaft auch kennt, wo wir viele Industrievertreterinnen haben, aber auch eine sehr starke Zivilgesellschaft haben. Und gleichzeitig auf amerikanischer Seite haben wir sehr viele technische Expertinnen, die teilweise ja immer ein paar Jahre voraus sind. Und die wollten wir zusammenbringen und zusammen eben an diesen Themen arbeiten. Und da kam es eben dann letztes Jahr zu dem Thema Künstliche Intelligenz und IT-Sicherheit, weil wir gesehen haben, Künstliche Intelligenz kommt, es ist in aller Munde, aber niemand redet wirklich um die IT-Sicherheitsaspekte von Künstlicher Intelligenz und deswegen wollten wir es angehen und haben dann eben diese Arbeitsgruppe gegründet, wo du ja auch Teil von bist, die seit Januar 2019 an dem Thema arbeitet, auch schon das erste Papier rausgebracht hat und sich jetzt in die zweite Iteration geht.

Sven Weizenegger: Genau, über das Papier werden wir gleich noch ein bisschen reden. Du kennst das ja auch in der Branche und mit Kunden und mit Unternehmen, dass viele denken, ich, also wieso soll ich jetzt angegriffen werden? Ich bin jetzt nicht interessant genug. Da stellt sich natürlich die Frage bei so einem relativ komplexen Thema wie KI oder in Klammern Machine Learning, wenn wir ehrlich sind. Wieso soll da was passieren? Was sind die Konsequenzen? Das ist, glaube ich, für viele noch sehr weit weg, weil man sich das nicht direkt vorstellen kann. Was sind aus deiner Sicht so Auswirkungen, wenn man eine KI in Anführungszeichen hackt?

Sven Herpig: Es kommt natürlich immer darauf an, wo das Eigensatzgebiet der KI ist. Ich glaube, Oral-B hat jetzt letztens geworben, dass sie künstliche Intelligenz in eine Zahnbürste gepackt haben. Mal ganz ehrlich, ist mir egal, ob dich irgendwer hackt oder nicht. Die Auswirkungen sind wahrscheinlich unsere Szene, aber viel früher sterben wirst du davon nicht. Es kommt aber darauf an, ob du das in kritischen Infrastrukturen zum Beispiel einsetzt, ob du es da nur einsetzt zur Prozessoptimierung oder ob es irgendwo eingesetzt wird, wo es wirklich dann dazu führen kann, dass Sachen explodieren und Menschen sterben. Wir sehen aber zum Beispiel gerade auch vor allem, dass einer der Hauptprobleme, Treiber von der Implementierung von maschinellem Lernen oder künstlicher Intelligenz eben der öffentliche Sicherheitssektor ist, beziehungsweise das Militär. Und das ist natürlich ein Sektor, wo wir nicht wollen, dass der erfolgreich gehackt werden kann oder angegriffen werden kann, weil die Ausmaße sind dort sehr schwerwiegend. Der Unterschied vielleicht so ein bisschen vom maschinellen Lernen zu Militär, traditionellen IT-Infrastrukturen oder IT-Anwendungsfeldern ist, dass wir dort häufig dann auch auf Abläufe setzen werden, auf Automatisierungsabläufe setzen werden, wo eventuell niemand mehr eingreifen kann und wo Abläufe sehr schnell hintereinander geschehen werden. Also wenn wir uns das Militärbeispiel nochmal verdeutlichen wollen, dann haben wir dann ein Bilderkennungssystem vielleicht in einem Panzer, das Bilderkennungssystem erkennt irgendwas, dann wird es weitergegeben an eine Feuerleitstelle, dann findet zum Beispiel das Abfeuern von den Hauptwaffen statt und dazwischen greift vielleicht gar keiner mehr ein. Das wäre natürlich ein großes Problem und ist dann noch ein größeres Problem natürlich, wenn jemand von außen diesen Prozess beeinflusst, hackt und so weiter.

Sven Weizenegger: Und wie passiert das? Also das sind ja für viele, glaube ich, Zuhörer eher so geschlossene Systeme. Wie würde so ein Hacker oder ein staatlicher Hacker primär vorgehen? Wie würde er versuchen, diese Bilderkennung zum Beispiel so zu gestalten, dass sie zu seinem Zwecke dient?

Sven Herpig: Also es gibt natürlich nicht das eine maschinelle Lernen oder die eine künstliche Intelligenz. Es gibt verschiedenste Arten, wie man maschinelles Lernen trainieren und einsetzen kann. Und je nachdem, wie es trainiert wird und wie es eingesetzt wird, hast du verschiedene Arten, wie du es angreifen kannst. Aber es sind uns schon Fälle bekannt, die auch im Testlabor stattgefunden haben, wo zum Beispiel, nehmen wir jetzt mal ein ziviles Beispiel, autonomes Fahren, das Tesla-System überlistet wurde. Und das war relativ einfach. Also die Forscherinnen haben sich daran gemacht, haben sich das System angeguckt, haben gesagt, okay, der Tesla kann die Leitlinien erkennen auf der Straße, die Fahrbahnmarkierungen und dementsprechend Oder geradeaus weiterfahrend, sage ich mal. Und dann haben sie gesagt, okay, wie gut ist dieses System eigentlich? Wir kratzen jetzt mal immer mehr von der Fahrbahnmarkierung ab und gucken, ab welchem Punkt das Auto eben nicht mehr nach links lenkt, sondern denkt, da wäre gar keine Markierung mehr. Und haben dann herausgefunden, die Erkennung von diesen Fahrbahnmarkierungen ist extrem gut trainiert worden. Was sie dann gemacht haben, haben gesagt, okay, dann drehen wir den Angriff eben um und kleben ganz kleine, kaum erkennbare Fahrstreifen auf. und es hat funktioniert. Das Fahrstreifenerkennungssystem von dem autonomen Fahrzeug hat dann diesen Aufkleber, der auf die Straße geklebt wurde, als Fahrstreifen anerkannt, der eigentlich kein Fahrstreifen war und ist dann in den Gegenverkehr gelenkt worden.

Sven Weizenegger: Und welche Konsequenzen hat das im Bereich autonomes Fahren? Das ist ja ein Thema, glaube ich, was viele Deutsche bewegt.

Sven Herpig: Also natürlich können wir hier die großen Pott aufmachen und sagen, ja, wir sollten nie über autonomes Fahren reden oder semi-autonomes Fahren, wenn es so einfach angegriffen werden kann. Wir haben Beispiele gehört, wie eben diese Fahrstreifen. Es gibt Beispiele, wo kleinste Aufkleber auf Stoppschildern dazu führen, dass das Fahrzeug dann nicht mehr anerkennt, dass es ein Stoppschild ist, sondern vielleicht gar nicht da ist oder irgendein anderes Schild. Aber wir müssen uns irgendwann auch die Frage stellen, welche Auswirkungen hat das in der Wirklichkeit? Wer hat denn Interesse daran, dass ein Fahrzeug in den Gegenverkehr gestört wird? Und da müssen wir sehen, staatliche Akteure werden sicherlich andere Sachen machen und genau das wollen wir auch in Zukunft noch rausfinden. Was sind denn wirklich reelle Angriffsszenarien? Theoretische Angriffsszenarien gibt es viele, aber welche davon wirklich dann in der Realität wir antreffen werden, das ist das, was es gilt rauszufinden, um dann keine Panikmache zu betreiben.

Sven Weizenegger: Glaubst du, es wird so eine Art Gegenbewegung geben? Also wir sehen ja in China Bilderkennungssysteme, auch in Deutschland war das Thema ja aktuell. jetzt mit Clearview, glaube ich, hieß das Unternehmen. Glaubst du, da wird es eine Art Gegenbewegung geben, wo es vielleicht diese Punkte, die du gerade erwähnt hast, die kann man vielleicht dann im Shop kaufen irgendwann und klebt sich aufs Gesicht und dann wird man vielleicht nicht mehr erkannt? Glaubst du, es wird auch so eine Privacy-Industrie geben, die eben das Umgehen versucht?

Sven Herpig: Ich kann ich mir schon vorstellen. Also ich gehe zum einen davon aus, dass wir den Einsatz in Europa und vor allem in Deutschland von eben dieser Gesichtserkennung so weit wie möglich zurückfahren oder zurückbekämpfen werden können, wenn ich das sagen kann. Wir sehen jetzt schon, dass sich da auch sehr viel Widerstand formiert hat in Europa und in Deutschland. Zum anderen sehen wir aber auch schon seit einiger Zeit, dass es eben eine Nische gibt von diesen Privacy-Gestaltungsmöglichkeiten für die Klamotten, die eben darauf ausgelegt sind, dass man damit mit Brillen oder mit anderen Sachen diese Erkennungssysteme überlisten kann. Von daher Ich glaube, es ist eine interessante Diskussion, die wir in Zukunft sehen werden. Aber ich hoffe, dass wir in Europa nie an den Punkt kommen werden, wo das wirklich eine in der Mitte der Gesellschaft ankommen muss, um einer Überwachung zu umgehen.

Sven Weizenegger: Ich glaube, in dem Papier wurde auch unterschieden zwischen klassischer IT und Angriffe auf Machine Learning. Was sind aus deiner Sicht die Probleme, die wir in der klassischen IT haben, die Auswirkungen wiederum auf Machine Learning haben?

Sven Herpig: Also zum einen ist maschinelles Lernen, bezieht ja nur ein paar andere Punkte in der Entwicklung mit ein, als sage ich mal die normale Softwareentwicklung. Also alle Angriffsmöglichkeiten, die du in einer normalen Softwareentwicklung hast, hast du auch in der Entwicklung von maschinellem Lernen. Ein großer Unterschied dabei ist, dass maschinelles Lernen natürlich auf Trainingsdaten setzt. Trainingsdaten, wie zum Beispiel, wenn ich ein Auto trainieren will, dass es Stoppschilder erkennt, muss ich 5000 Bilder von Stoppschildern schießen, die immer anders aussehen können und dann muss ich sie auch markieren. Dann muss ich sagen, ja, das ist ein Stoppschild, nein, das ist kein Stoppschild. Dann müssen die Bilder rausgenommen werden, die man nicht als Stoppschild erkennen kann und so weiter. Es gibt also eine Kette, wo man eventuell Dritte mit einbezieht oder Vierte einbezieht, die einem helfen, diese Trainingsdaten zu sortieren, zu markieren und so weiter, bevor sie überhaupt ins Training kommen. Und diese ganze Supply Chain, diese Lieferkette, die dahin führt, die ist natürlich auch sehr angreifbar.

Sven Weizenegger: Es gibt ja diese Clickworker, glaube ich. Darauf, glaube ich, spielst du so ein bisschen ab, wo man ein bisschen Geld verdienen kann. Das wäre so ein Thema für die Supply Chain, wenn ich das richtig verstehe.

Sven Herpig: Ja, auf jeden Fall. Also überall da, wo wir eben das Ganze außer Hand geben. und das passiert eben hauptsächlich auch bei dem Kurieren von den Trainingsdaten. Im Sammeln von Trainingsdaten haben wir ein präferiertes Angriffsziel, was in der normalen Softwareentwicklung so jetzt nicht vorkommt. Und zum anderen hast du natürlich Systeme des maschinellen Lernens, die darauf setzen, dass sie eingesetzt werden und dann live Trainingsdaten bekommen und mit diesen Trainingsdaten lernen. Also das Live-Lernen oder Online-Lernen wird es manchmal genannt. Und da hast du natürlich den Punkt, dass du es nicht ein System trainierst, dann guckst, ob es funktioniert und es dann einsetzt, sondern dass es, während es schon im produktiven Betrieb ist, lernt. Und das hat natürlich dann einige Angriffswege, die man dann sehr schnell erkennen muss und sehr schnell detektieren und darauf reagieren muss.

Sven Weizenegger: Wenn ich mich richtig erinnere, gibt es da so Szenarien, wo man dem System beibringt, dass das Böse, was die Kreatur eigentlich was Gutes ist, weil das System zwei Wochen erstmal lernen muss, was eigentlich normal ist. Ist das immer noch so ein Thema aktuell, dass wenn ich so ein System einsetze, die in Live-Umgebungen lernen, dass sie vielleicht Dinge lernen, die sie eigentlich als böse markieren sollten? Ist das so ein Angriffsszenario, was stattfinden wird weiterhin?

Sven Herpig: Soweit mir bekannt ist, ist das aktuell auf jeden Fall ein Szenario. Also du setzt, wenn du da eine Sicherheitssoftware einsetzt, die sagt, okay, du lernst jetzt erstmal, was alles funktioniert. Also um 8 Uhr gehen die Hälfte der Rechner an, um 9 Uhr gehen die andere Hälfte der Rechner an, um 18 Uhr sind eigentlich alle Rechner ausgeschaltet, zwischendurch fliegen E-Mails hin und her und so weiter. Und dann würde diese Software dann irgendwann erkennen, so ja okay, wenn jetzt um 5 Uhr morgens alle Computer angehen, dann gibt es ein Signal und schlägt Alarmen und schaltet vielleicht auch die Internetverbindung ab. Das Problem dabei ist natürlich, wenn diese Software zum ersten Mal in Einsatz kommt und lernt, was normal ist und was nicht und welche Computer angestaltet werden, welche nicht. Wenn an dem Punkt das Netzwerk schon infiziert ist, schon eine Schadsoftware da läuft, schon irgendwelche staatlichen Angreifer in diesem Netzwerk drin sind, klar, dann lernt diese Software eben auch die falschen, die bösen Verhaltensweisen und sagt, nö, das ist alles so okay, das ist in Ordnung, wenn das weiterhin so vorkommt, dann schlage ich auch keinen Alarm. Natürlich ist das ein Problem, das berücksichtigt werden muss.

Sven Weizenegger: Wir haben ja in der klassischen IT gefühlt so ein Szenario, wo es 5 vor 12 ist, wo es jeden Tag neue Vorfälle gibt. Letztens wieder ein paar Milliarden Datensätze wurden geklaut von einem amerikanischen Anbieter Equifax, glaube ich, wo jetzt die Chinesen wohl dahinter sind und es passiert ja jeden Tag. Universitäten, die gehackt werden, Behörden, das Berliner Kammergericht, was noch klassische IT ist, wo man glauben würde, das ist ja noch beherrschbar. Und jetzt haben wir so ein neues Thema für viele sehr diffus. Viele haben auch Angst in Deutschland. Oh Gott, meine Arbeitsplätze verschwinden. Müssen wir uns beeilen? Haben wir Zeit? Wie akut ist das Thema?

Sven Herpig: Also ich würde sagen, wenn wir es vergleichen zum Internet der Dinge zum Beispiel, da sind wir sehr reaktiv erst tätig geworden. Diese ganzen Sachen, die wir mittlerweile im Haus haben, um die Hände haben, was auch immer, die wurden ausgerollt, die wurden unsicher ausgerollt und jetzt bemühen wir uns, das Ganze in den Griff zu bekommen, das sicher zu machen.

Sven Weizenegger: Kriegen wir das hin?

Sven Herpig: Ja. Das werden wir noch sehen. Aber wenn wir uns den Bereich maschinelles Lernen, künstliche Intelligenz angucken, dann sind wir jetzt noch in einem Bereich, wo wir noch Entscheidungen treffen können, die sich positiv auswirken werden zu dem Zeitpunkt, wo wir es dann brauchen werden. Im Moment, es wird langsam ausgerollt, es gibt mehr und mehr Anwendungsszenarien für eben maschinelles Lernen, aber wir haben eigentlich jetzt einen guten Zeitpunkt, wo wir diese zusätzlichen Sicherungsmaßnahmen einbringen können, wo wir uns Gedanken drüber machen können, auch auf politischer Ebene, welche Weichen wir stellen wollen. Da sind wir jetzt an einem guten Punkt. Gleichzeitig muss man natürlich sagen, diesen Punkt hatten wir bei traditionellen oder konventionellen IT-Systemen schon vor Jahrzehnten. Und gleichzeitig machen wir in diesen IT-Infrastrukturen, ob das nun Universitäten sind, Krankhäuser, kritische Infrastrukturen oder wie auch immer, immer noch die gleichen Fehler, obwohl wir seit Jahrzehnten wissen, was wir besser machen müssten. Es gibt Handlungsanweisungen für jedermann, jeder Frau zugänglich im Internet. Trotzdem machen wir diese Fehler noch. Das heißt, ja, wir müssen jetzt tätig werden. Gleichzeitig bin ich aber der Meinung, dass wir es, wenn es einen größeren Rollout gibt vom maschinellen Lernen in Anwendungsbereichen, dass wir dann immer noch nicht bereit sein werden.

Sven Weizenegger: Du hattest ja über die Politik gesprochen und deren Bedeutung zu dem Thema. Gibt es da Unterschiede zwischen was passiert in Europa, in Deutschland und in den USA? Gibt es da komplett unterschiedliche Sichtweisen?

Sven Herpig: Europa, USA hast du natürlich immer den Unterschied, dass du in den USA nach dem Motto folgst, move fast and break things. Und da werden halt Sachen umgesetzt und wenn irgendwas nicht funktioniert oder das autonome Auto irgendwen umfährt, dann Ist das halt so, dann muss man nächstes Mal verbessern und zahlt der Familie halt ein bisschen Geld. In Deutschland ist es so, du baust halt einen kompletten Streckenabschnitt auf, auf einer Teststrecke, die abgenommen werden muss, vom TÜV von mir aus auch noch. Und dann darf da vielleicht ein semi-autonomes Auto fahren. Das heißt, das ist dann natürlich eine sichere Implementierung, als wir in den USA haben. Gleichzeitig hängen wir dadurch natürlich um einiges hinterher. Und der zweite Aspekt, der mit reinspielt, ist natürlich auch bei uns die Frage im Umgang mit Daten. Wir haben die GDPR, die General Data Protection Regulation und diese gibt dir auch vor, wie du mit Daten umgehen kannst und so weiter, was es natürlich dann eventuell auch ein bisschen schwieriger macht, an die Trainingsdaten ranzukommen, die du brauchst für die maschinellen Lernmodelle, während du in den USA ja eher einen laxeren Umgang mit Daten hast und dadurch man dort vielleicht einfacher an die Daten kommt und die Daten verbreiten kann, die man braucht zum Trainieren.

Sven Weizenegger: Und ich glaube, das Spannende am europäischen Ansatz ist, dass selbst wenn jemand umgefahren wird mit dem Auto, dass man genug Transparenz darüber hat, wieso wurde es umgefahren. Die USA haben da anscheinend eine ganz, wie du gerade gesagt hast, eher so eine Blackbox-Sicht. Wenn es passiert, dann passiert es. Und wir Europäer haben dank der Datenschutzgrundverordnung da, glaube ich, nochmal eine ätherische Sichtweise auf das Thema.

Sven Herpig: Ja, auf jeden Fall. Ich glaube auch, wenn ich mir das so betrachte, finde ich das europäische Vorgehen auch sinnvoller. Aber wie gesagt, ich komme nicht aus der Industrie, von daher muss ich mir keine Gedanken darüber machen, ob ich jetzt langsam bin. Aber generell von der ethischen Sichtweise und auch von der moralischen Sichtweise, die wir in Europa vertreten, bin ich davon überzeugt, dass wir da auch die richtigen Ansätze gewählt haben.

Sven Weizenegger: Jetzt haben wir sehr viel über, was kann mit KI im negativen Sinne entstehen. Dann gibt es noch die andere Sichtweise, denke ich. Das ist ja bei IT so häufig, dass man so eine Dual-Use-Sicht hat. Also man kann Böses tun mit einem Messer, man kann auch Gutes mit einem Messer tun. Kann man mit KI denn auch im Punkt der Cybersicherheit Gutes tun, Gutes bewirken?

Sven Herpig: Ich kann erstmal noch negativer werden, weil was wir gerade besprochen haben, nämlich die IT-Sicherheitsaspekte von maschinellem Lernen, das ist erstmal der neutrale Grund. Wir werden maschinelles Lernen einsetzen und wir müssen es sicher machen. Aber es gibt ja noch zwei Seitenaspekte. Der eine Aspekt ist, du kannst maschinelles Lernen auch super dazu nutzen, um offensivere Maßnahmen zu verbessern. Also zum Beispiel, jeder kennt es, Phishing-E-Mails. Eine E-Mail kommt rein, bitte geben Sie mir Ihre Bankdaten an, Ihre TANs oder geben Sie Ihr Passwort und Ihren Nutzernamen an und dann gibt man das ein, schickt das zurück und der Account ist verloren. Die werden zwar immer besser, aber normalerweise sind die immer noch relativ schlecht. Manche sind gut erkennbar, manche sind schlecht erkennbar. Aber was passieren kann durch maschinelles Lernen ist, dass es eingesetzt werden kann, um diese Phishing-E-Mails nicht nur besser zu machen, sondern auch viel mehr darauf hinzuarbeiten, dass sie funktionieren. personalisiert sind. Und dann wird abgearbeitet, die Social-Media-Profile bei Facebook, bei Twitter, guckt, was deine Interessen sind und so weiter und schreibt dir automatisiert wirklich eine E-Mail, die sehr stark darauf zugeschnitten ist, dass du wirklich auf diesen Link klickst oder dein Account-Passwort eingeben wirst. Und gleichzeitig ein anderer Anwendungsfall ist, dass maschinelles Lernen dazu genutzt werden kann, Verwundbarkeiten in IT-Infrastrukturen automatisierter und schneller zu erkennen und herauszufinden. Das ist so der negativere.

Sven Weizenegger: Und es gibt ja auch so ein Beispiel, glaube ich, von der DARPA, wenn ich mich nicht irre. Da gibt es ja so einen Wettbewerb. Vielleicht magst du dazu was erzählen. Das war so ein Krieg der Welten gefühlt. Offensive und defensive Parteien. Was war das Setup? Das war ja super spannend anscheinend. Und was war das Resultat?

Sven Herpig: Ja, die DARPA Challenge ist super spannend eigentlich. Auf sehr akademischen Testniveau natürlich. Aber es geht darum, dass du auf der einen Seite Systeme hast, also die über maschinelles Lernen verstärkt werden, die eine IT-Infrastruktur Schwachstellen finden sollen und die patchen sollen. Und auf der anderen Seite hast du ein System, was eben die Schwachstellen finden soll und ausnutzen soll. Und dann guckt man, wer von beiden Seiten da gewinnt. Und die Erkenntnis, die wir gemacht haben, ist, dass es schon funktioniert. Systeme gibt, die auf maschinelles Lernen setzen, die eben diese Blue Teams, also die guten, die Verteidiger relativ gut umsetzen können, um Schwachstellen zu finden, eventuell Patches bereitzustellen oder Mitigations bereitzustellen, aber dass wir auch noch einen etwas längeren Weg haben, um das Ganze in Produkte zu übersetzen. Aber auf jeden Fall spannend, auch mal so der Öffentlichkeit zu zeigen, wie das funktionieren kann. Und dann, wenn wir auf diesen Bereich gucken, was kann denn maschinelles Lernen für die IT-Sicherheit, für die Cybersicherheit tun, dann hast du einige Anwendungsfälle, was wir gerade genannt haben, vielleicht komme ich nochmal darauf zurück, dass du zum Beispiel dieses Thema einsetzen kannst, sie lernen dann in deiner eigenen IT-Infrastruktur, wie deine Infrastruktur aussehen soll, was funktionieren soll, wann was passieren soll in deiner IT-Infrastruktur und meldet dann Alarme dazu. wenn irgendwas nicht so läuft, wie es normalerweise läuft. Also wie gesagt, wenn die Computer um 4 Uhr nachts angehen oder wenn auf einmal ganz viele Daten aus deinem internen Netzwerk rausfließen ins Internet, wo normalerweise nur E-Mails rausgehen. Und dann kann das natürlich weitergehen, wenn es eben nur Computer sind, die angehen. Wenn 10% der Computer früher angehen als normalerweise, passiert nichts. Bei 20% schlägt es Alarm. Bei 80% schaltet es die Verbindung zum Internet ab und so weiter. Also es gibt neue Möglichkeiten, die werden auch gerade ausprobiert. Es gibt verschiedene IT-Sicherheitsunternehmen, die sich gerade in diesen Markt reinbewegen. Und von daher, ich glaube, es wird spannend.

Sven Weizenegger: Wir haben ja auch einen extremen Mangel an Fachkräften auf dem Markt. Ich glaube, da kann und wird KI uns massiv unterstützen, da ein bisschen Herr zu werden des Problems. Wir haben so viel Daten, das merkt man auch, wenn man mit sich als Experten redet oder sich als Verantwortlichen. Man kommt da gar nicht mehr hinterher letztendlich. Das muss eine Maschine analysieren, bewerten und idealerweise auch automatisiert eine Gegenmaßnahme durchführen. Wobei es, glaube ich, auch viele Experten gibt, die sagen, so eine Gegenmaßnahme kann auch massive Auswirkungen haben, wenn man das vielleicht falsch implementiert.

Sven Herpig: Es gibt in der Tat schon dafür Lösungen. Es gibt amerikanische Universitäten, die gesagt haben, okay, wir müssen den Netzwerk sicher machen. Wir haben 30.000, 40.000 Studierende. Wir haben ein großes heterogenes IT-System und wir haben natürlich als Universität jetzt keine riesigen Ressourcen, um das sicher zu machen. Also das machen wir. Wir gucken uns an, was auf dem Markt ist. Wir setzen auf eine Lösung, die auf maschinelles Lernen setzt. wo wir nur Studierende, die ein bisschen was mit der IT-Sicherheit verstehen, anlernen müssen. Und dann setzen wir die in so einen Raum und sagen, hier, das meiste macht die Software für euch, die schlägt Alarm, wenn irgendwas ist, und die schlägt euch dann auch gleich schon Lösungsmöglichkeiten vor, die ihr einsetzen könnt. Und nur wenn das nicht funktioniert, wenn man da nicht weiterkommt, dann wird es eben an die paar festen Mitarbeitenden gegeben, die sich mit dem Problem dann widmen. Das Feedback dazu war äußerst positiv auf jeden Fall.

Sven Weizenegger: Also eine Art Assistenzsystem letztendlich. Quasi. Und um zurückzukommen zum Report. Ich saß ja auch dort und habe vieles auch nicht verstanden, weil vieles für mich sehr, sehr neu war an Szenarien. Was war für dich so das Highlight an Erkenntnis?

Sven Herpig: Also das Spannendste für mich war eigentlich, dass wir viele Expertinnen versammelt hatten und dir kein einziger von denen alleine aufzeigen konnte, wie groß eigentlich die Angriffsoberfläche von maschinellem Lernen ist. Und das war ein Punkt, wo ich gesagt habe, okay, eigentlich, was wir machen wollten, ist, wir wollten uns angucken, wie angreifbar, verwundbar ist eigentlich maschinelles Lernen, was hat das für Auswirkungen, wenn wir uns auf kritische Bereiche fokussieren, also Stromnetze, Militär, öffentliche Sicherheit und was sind die Implikationen davon. Und während wir die Leute versammelt hatten, haben wir alle festgestellt, okay, es ist ja ganz spannend, aber vielleicht sollten wir erstmal den ersten Schritt vom zweiten tun. Der erste Schritt ist, lass uns doch erstmal darüber reden, auf wie viele verschiedene Weisen man maschinelles Lernen angreifen kann. Und das Ganze mal visualisieren. Und das haben wir dann getan. Und für mich war das die wichtigste Erkenntnis, dass man jetzt endlich mal einen Zugriff hat, wie das Ganze aussehen kann, wo es Angriffsmöglichkeiten gibt, wie so der Forschungsstand auch ist. Und dann uns im zweiten Schritt dann zu widmen, was davon wird relevant werden, welche technischen Maßnahmen laufen davon. Und ganz ehrlich, in dem Bereich war für mich das Interessanteste, dass die Forschung sowohl es Angriffsmöglichkeiten gibt, als auch was Abwehrmöglichkeiten angeht, schon durchführt. Seit vielen, vielen Jahren läuft und das Ganze jetzt erst so langsam an die Oberfläche tritt. Aber wenn du den Wissenschaftlerinnen sagst, ja, ich habe da jetzt gerade herausgefunden, das kann man so und so die Robustheit erhöhen, sagen die, ja, ja, haben wir schon vor zehn Jahren daran gearbeitet.

Sven Weizenegger: Und woran liegt das, dass in Anführungszeichen die Kommerzialisierung dessen noch nicht stattgefunden hat?

Sven Herpig: Ja, es liegt in der generellen Entwicklung von maschinellem Lernen, dass wir jetzt die Möglichkeiten haben, unter anderem wegen der Entwicklung der Computing Power, mehr Einsatzszenarien, mehr Trainingsszenarien für maschinelles Lernen zu haben und damit es eben auch in der Breite ankommen wird in den Anwendungsszenarien. Und wenn es in der Breite ankommt, wird es kommerzialisierter werden. und wenn es kommerzialisiert wird, dann ist es natürlich interessant für Kriminelle und für Staaten. und an dem Punkt müssen wir natürlich dann auch spätestens über die IT-Sicherheit reden.

Sven Weizenegger: Und du hast gesagt, es wird eine zweite Version geben, habe ich das richtig verstanden?

Sven Herpig: Genau, wir werden in dem Papier jetzt da weitermachen, wo wir eigentlich letztes Jahr sein wollten, nämlich wir werden diesen Reality-Check machen, den Realitäts-Check. Was heißt das eigentlich jetzt konkret für uns in den nächsten Jahren, wenn es diese Angreifbarkeit von maschinellem Lernen gibt, bei gleichzeitiger Kommerzialisierung von maschinellem Lernen und Einsatz in Bereichen der öffentlichen Sicherheit? Und dann dahingehend, was wollen wir der deutschen Politik und der internationalen Politik vielleicht auch empfehlen, was sie machen soll, um das zu verhindern, dass wir da auf ein großes Problem zu steuern?

Sven Weizenegger: Und gab es schon Resonanz zum ersten Bericht von der Politik?

Sven Herpig: Wir haben ganz gute Resonanz bekommen. Wir haben den Teilbericht auch schon in der Enquete-Kommission des Bundestages vorgestellt. Wir haben die Berichte sowohl auf Industrieveranstaltungen als auch auf technischen Konferenzen vorgestellt. Wir haben es vor allen Cyber-Botschaftern der Europäischen Union vorgestellt. Also es gab da positive Resonanz. Das Thema ist natürlich noch so ein bisschen weit weg. Also KI ist sowieso generell weit weg. und dann auch noch die Sicherheit von KI ist noch ein bisschen weiter weg. Aber ich muss dir ganz ehrlich sagen, ich habe weitaus weniger Resonanz aus der Politik erwartet und war sehr glücklich darüber. Und gleichzeitig natürlich muss ich schmunzeln, dass wir auch Einladungen dafür auf technische Konferenzen bekommen haben.

Sven Weizenegger: Sehr schön. Was sind also deine Wünsche eher allgemein bezogen im Bereich Cyber Security? Weil wir haben ja sehr viele Probleme einerseits. Man weiß ja nie, wo man richtig anfangen soll. Das Problem sitzt ja oft vor dem Rechner. Wo würdest du sagen, es drückt der Schuh eigentlich am dollsten aktuell?

Sven Herpig: Wenn du jetzt mal so mein Genie bist, dann möchte ich drei Wünsche äußern.

Sven Weizenegger: Ja, dann mach gerne drei.

Sven Herpig: Okay, dann mache ich drei. Also der erste ist, wir müssen unsere Cybersicherheitsarchitektur, also die Gesamtheit unserer deutschen Behörden in dem Bereich effizienter und effektiver gestalten. Das heißt, die zentralen Behörden, die wir haben, die ich vorher noch angesprochen habe, die müssen besser funktionieren, zum Beispiel das Cyberabwehrzentrum, der Cybersicherheitsrat. Es muss uns klar sein, was passiert da eigentlich, wer ist eingebunden, was machen die?

Sven Weizenegger: Wieso reden die nicht miteinander oder zu wenig? Was passiert da? Oder passiert nicht?

Sven Herpig: Das ist verschiedenste Probleme. Ich glaube, das Cyberabwehrzentrum bringt verschiedene Behörden zusammen. Wenn du verschiedene Behörden zusammenbrichst, hast du immer Grabenkämpfe. Welches Logo ist auf welchem Report drauf? Wer trägt am meisten bei? Wer trägt nichts bei? Also wirklich Sachen, die einfach nicht sein müssen. Und dann zum Beispiel beim Cybersicherheitsrat, der ja auf strategischer Ebene sehr weit oben ist, wissen wir kaum, was passiert. Der tagt halt ein paar Mal im Jahr irgendwie. Da sind dann drei Industrieverbände vertreten. Dann völlig random zwei Bundesländer vertreten, kein zivilgesellschaftlicher Vertreter drin. Und was dort produziert wird, weiß auch keiner, weil nichts öffentlich wird. Also nicht nachvollziehbar und gehört sich auch eigentlich nicht in eine deutsche zivile Cybersicherheitsarchitektur. Da müssen wir auf jeden Fall besser werden. Das wäre mein Wunsch an die Politik, dass da mal nachgebessert wird. Und sowohl bei diesem Cyber-Apfelzentrum als auch beim Cybersicherheitsrat, unseren zentralen Plattformen, die ganz wichtig sind, um diese Architektur zusammenzuhalten, wir besser werden.

Sven Weizenegger: Also mehr Transparenz, mehr Öffentlichkeitsarbeit auch.

Sven Herpig: Genau. Und einfach eine Struktur, wo man weiß, was geht und inklusiv wird, nämlich alle einbindet, die relevant sind für den Bereich und nicht nur irgendwie randommäßig ein paar Institutionen einbindet.

Sven Weizenegger: Und dein zweiter Wunsch?

Sven Herpig: Auch da nochmal ein behördlicher Wunsch, dass wir uns um die Fachkräfteproblematik vor allem auf behördlicher Seite ein bisschen besser kümmern. Es gibt jetzt mehr Studiengänge, es gibt mehr Professoren für den Bereich. Das heißt, wir gehen dieses Problem an und in ein paar Jahren werden wir das Problem vielleicht auch ein bisschen besser gelöst haben, aber für kurz- und mittelfristige Maßnahmen fehlt es uns noch ein bisschen. Und da müssen wir uns zum Beispiel angucken, wie sieht das mit dem Tarif- und Beamtenrecht aus. Also wenn ich halt der Lead Hacker bin, der beste Hacker und habe aber nie eine Uni besucht, dann steige ich relativ niedrig an und kann mir kaum eine Wohnung leisten und Essen auf den Tisch für eine Familie. Das kann ja irgendwo nicht sein. Ich kann ja nicht sagen, okay, du gehst nochmal fünf Jahre an die Uni, machst noch einen Bachelor und Master, damit wir dich vernünftig bezahlen können, sondern da müssen wir irgendwie aus dieser Logik ausbrechen, da müssen wir einen alternativen Weg bereitstellen, wenn wir die Leute bekommen wollen, die wir brauchen.

Sven Weizenegger: Der Staat steht letztendlich in Konkurrenz mit der Privatwirtschaft. Und die zahlen, glaube ich, teilweise sechsstellige Gehälter, wenn man von der Uni kommt. Das heißt, der Staat muss dann attraktiver werden, auch als Arbeitgeber.

Sven Herpig: Das auf jeden Fall. Wobei wir gesehen haben, dass halt in diesem hohen Bereich, also dem Bereich so nach einem Masterabschluss normalerweise, gelten nicht mehr so der riesige Also es gibt einen riesigen Unterschied beim Einkommen. dann, aber das ist nicht mehr so der motivierendste Faktor. Der motivierendste Faktor ist dann, auf wie viel Fortbildung kann ich Was kann ich nebenbei an Projekten machen und woran kann ich arbeiten? Also der öffentliche Sektor kann ein attraktiver Arbeitgeber werden, wenn er diese Personen ohne Abschluss, die ja unglaublich viele Fähigkeiten haben und die wir in Deutschland haben, besser einbinden kann und dann die Arbeitsumgebung generell attraktiver macht. Ich fordere nicht, dass wir hier im höheren Dienst, also diejenigen, die mit dem Masterabschluss dann an die Behörden gehen, hier irgendwie doppelt so viel verdienen müssen. Und ich glaube, das braucht es auch gar nicht.

Sven Weizenegger: Und dein letzter Wunsch und dritter Wunsch?

Sven Herpig: Ja, mein letzter Wunsch ist einfach, dass wir ein bisschen von der Subsidiarität abrücken. Das heißt sagen, ja okay, liebes kleines und mittelständisches Unternehmen, hier sind alle Informationen, jeden Tag schicken wir dir so einen Gefahrenreport, kümmere dich mal um deine IT-Sicherheit. Das können wir natürlich machen, ist dann halt scheiße. Weil die werden es nicht hinkriegen, die haben keine Fachkräfte dafür und die haben auch gar keine Ressourcen dafür. Das heißt, eigentlich wäre unsere Lösung Es muss Lösungen geben, von mir aus auch in einer Public-Private-Partnership, zum Beispiel zwischen Behörden und Privatsektor, die skalieren. Und wo man als kleines oder mittelständisches Unternehmen sagen kann, okay, ich habe jetzt so ein System, was erkennt, wenn Daten aus meinem Netzwerk abfließen. Das wird betrieben von mir aus, von einem großen deutschen Anbieter. Da sind Sicherheitsmaßnahmen drin, die werden gefördert von der deutschen Cybersicherheitsbehörde. Und ich bezahle dann x Euro pro Monat, muss das anklicken, dann läuft das über mein Firmennetz drüber und ich muss mich da nicht mehr so richtig drum kümmern. Darüber müssen wir uns Gedanken machen, weil was wir jetzt haben, skaliert einfach überhaupt nicht. Und wir werden links und rechts gehackt. Also brauchen wir irgendwas, was skaliert und was man auch als Unternehmer von einem kleinen oder mittelständischen Unternehmen, der Kern der deutschen Wirtschaft nun mal, einfach einzusetzen ist.

Sven Weizenegger: Also ich kann da nur beipflichten. Ich bin ja auch oft in Kreisen unterwegs, wo man dann diskutiert, diskutiert, diskutiert. Und dann diskutiert man und dann stelle ich manchmal die Frage, was sind denn die Tools? Wo kann ich dann draufklicken? und ich bin jetzt sicher? Ich war mal bei der Veranstaltung bei der DIN-Norm, glaube ich, heißt das, in Berlin. Da habe ich gesagt, ich hätte gerne eine Art Amazon-Shop, wo ich draufklicke und dann bin ich sicher. Da gucken ja alle einen mit großen Augen an. Da sage ich, ja, das wollen die Leute. Also daher kann ich nur beipflichten. Neben diesen ganzen Maßnahmen, PDF-Dokumenten, Awareness-Schulung, ist alles super wichtig. Aber ich glaube, es spiegelt auch nicht die Lebensrealität wider. Ein Arzt hat halt eben keine Zeit, sich Awareness-Videos anzugucken. Der möchte ein Tool aufgespielt bekommen und das Tool muss funktionieren. Das heißt, da muss auch mehr Technologie wiederkommen, um das zu assistieren und zu unterstützen und das transparent am besten, sodass gar kein Einwirken notwendig ist. Wieso auch? Weil der Geschäftszweck eines Arztes ist es nicht, sich 30 Minuten im Monat mit Cybersecurity zu beschäftigen. Das ist jetzt meine extreme Meinung.

Sven Herpig: Ja, ich sehe das ähnlich. Also ich meine, natürlich können wir weiter Victim-Blaming betreiben und können sagen, naja, aber die müssen sich schon ein bisschen damit beschäftigen. Ich meine, die kaufen sich doch auch eine Stahltür und schließen die ab. Warum machen die das nicht mit Cyber-Sicherheit? Das ist halt nun mal ein bisschen komplexer. Und im Endeffekt, natürlich können wir sagen, ja, die sind dafür selber verantwortlich, aber wir sehen ja seit Jahrzehnten, es funktioniert ja nicht. Wir können sagen, Awareness-Trainings, ihr müsst euch bewusst sein, dass ihr nicht auf alles draufklicken sollt. Ihr müsst da IT-Sicherheit sicher machen. Okay, können wir natürlich sagen, aber es funktioniert nicht. Und trotzdem auf der anderen Seite sagen wir, okay, liebe Ärzte, Ihr müsst jetzt alle online gehen, wobei wir wissen, dass viele Ärzte einfach ihre internen Netze gar nicht ans Internet angeschlossen haben, weil sie sich darum nicht kümmern wollen, es sicher zu machen. Jetzt schreiben wir ihnen vor, sie müssen zu Abrechnungszwecken ihre Netzwerke ans Internet hängen, aber gleichzeitig bieten wir ihnen immer noch nichts an, was sie jetzt mit einem Klick und einem monatlichen Beitrag oder zehn Klicks und einem monatlichen Beitrag sicher macht. Und ich glaube, das ist ziemlich gefährlich. Wir digitalisieren wer? Wir sagen, sie sollen mehr online machen? aber gleichzeitig bieten wir ihnen nichts anderes, sondern sagen, na, da müsst ihr euch halt informieren, da gibt es dann halt eine Gesillion Tools draußen, aus denen müsst ihr euch was aussuchen, weil ihr seid die Ärzte, ihr versteht garantiert, was ihr jetzt braucht und dann müsst ihr euch sicher machen. Und wenn ihr das nicht macht, dann habt ihr halt kein Interesse daran, euch sicher zu machen. Ich finde, das ist sehr gefährlich und sehr arrogant.