Der KI-Podcast für Unternehmer

GA #1186 | Nicolai Greiner - Datenschutz als globaler Wettbewerbsvorteil

March 21, 2024 Norman Müller, Nicolai Greiner
Der KI-Podcast für Unternehmer
GA #1186 | Nicolai Greiner - Datenschutz als globaler Wettbewerbsvorteil
Show Notes Transcript Chapter Markers

In dieser Episode sprechen Norman Müller und Nicolai Greiner über die aufregenden Möglichkeiten von KI für kleine und mittelständische Unternehmen. Doch es geht nicht nur um Chancen – sie beleuchten auch die Risiken und Herausforderungen, insbesondere im Hinblick auf die brandneue KI-Verordnung.  Entdecke, wie Unternehmen durch klare Richtlinien und Risikomanagement-Systeme die sichere und verantwortungsbewusste Nutzung von KI gewährleisten können. Ein Muss für alle, die verstehen wollen, wie KI unsere Zukunft prägt – mit Insights zur Regulierung, Haftung und der essenziellen Transparenz von KI-Systemen. 

Takeaways

  • Der Einsatz von KI kann Unternehmen Wettbewerbsvorteile bieten, insbesondere wenn sie datenschutzkonform arbeiten.
  • Die Nutzung von KI birgt Risiken und Herausforderungen, insbesondere im Hinblick auf Datenschutz und Haftung.
  • Die neue KI-Verordnung zielt darauf ab, die Risiken von KI zu reduzieren und legt Regeln für den Einsatz von KI fest.
  • Die Transparenz und Erklärbarkeit von KI-Modellen sind wichtige Aspekte, um Vertrauen aufzubauen und Risiken zu minimieren. 
  • Unternehmen können sich einen Wettbewerbsvorteil verschaffen, indem sie Datenschutz und Datenschutz in ihre KI-Modelle integrieren.
  • Transparenz und Vertrauen sind entscheidende Faktoren für das Aufbauen von öffentlichem Vertrauen in KI.
  • Kritisches Denken ist unerlässlich, wenn es um die ethische und verantwortungsbewusste Nutzung von KI geht.


Über Nicolai:
Seit 19 Jahren beschäftigt er sich intensiv mit IT-Recht und Datenschutz und ist seit jeher von technologischem Fortschritt fasziniert. Er brennt für alle drei Bereiche und hat dieses Engagement in das Motto seiner Kanzlei umgesetzt: Legal Excellence – Digital Passion. Mit seiner eigenen nebenberuflichen Kanzlei PrivIT Legal hat er sich einen Traum erfüllt, der sich weniger wie ein Beruf, sondern mehr wie eine Berufung anfühlt.


Support the Show.

---

Schließ Dich unserer Podcast-Community auf LinkedIn an und sichere Dir den Zugang zu exklusiven Inhalten und Vorankündigungen.

https://www.linkedin.com/groups/8687316/

  • Videoaufzeichnung des Interviews
  • Hintergrundinformationen zu unserem Interviewgästen
  • Q&A-Sessions mit Norman
  • Ankündigungen von Live-Podcast Produktionen
  • Stelle deine Fragen an unsere Interviewgäste
  • Exklusive Audio-Events mit unseren Podcast-Gästen

---

Dieser Podcast wird produziert von: MARKENREBELL - Podcast Manufaktur: https://www.markenrebell.de

Speaker 1:

Dieser Podcast wird präsentiert von Genius Alliance.

Speaker 2:

Das ist einfach so der Vertrauensansatz, und vielleicht habe ich da einfach den Glauben in die Menschheit trotz Facebook und Google noch nicht verloren. Ich glaube einfach nicht, dass, wenn der Mensch die Wahl hat zu einer vernünftigen Alternative, wenn er die Wahl hat, ich kann das machen, ohne dass ich mich gedanklich nackt ausziehen muss, oder mit Bin ich immer noch der Ansicht wird sich der Mensch dafür entscheiden, seine Privatsphäre irgendwo zu behalten. Und das ist ein Ansatz, der lohnt, dass man den verfolgt, dass man den Leuten zeigt passt auf, bei uns kriegst du was, aber du kriegst es sicher, und jetzt nicht nur im Hinblick auf Datenschutz, sondern es ist auch IT sicher.

Speaker 1:

Du hörst den Genius Alliance Podcast. Du bist Unternehmer und möchtest die nächste Evolutionsstufe der Digitalisierung erreichen? dann starte jetzt und gewinne neue Kunden im Online-Dschungel Mit starken Interviews, wertvollen Erfolgsstrategien und hochspezialisierten Digitalexperten. Der Genius Alliance Podcast von und mit Founder und CEO Norman Müller.

Speaker 3:

Es ist wieder Zeit für eine neue Folge hier im Genius Alliance Podcast. Mein Name ist Norman Müller, und heute habe ich Nikolaj Greiner zum Interview eingeladen. Er ist ein Top-Experte, denn er beschäftigt sich seit 20 Jahren mit IT-Recht und Datenschutz. Hallo, nikolaj.

Speaker 2:

Hallo Norman. danke für die Einladung, Sehr gerne.

Speaker 3:

Nikolaj, wir wollen heute über zwei Themenbereiche sprechen, die unmittelbar miteinander zu tun haben, denn wir werden uns heute mit dem Thema natürlich KI beschäftigen, ganz besondere in Verbindung mit dem Datenschutz. Also, welche Wettbewerbsvorteile, welche Chancen ergeben sich hier für uns als Wirtschaftsstandort Kuhburg, deutschland, eu? Und wir werden auch natürlich hinzuziehen in die neue KI-Verordnung, wenn mal ein paar Grundlagen heute in diesem Interview gemeinsam schaffen, damit auch alle da draußen mitreden können. Wir werden das heute versuchen. Man sagt, ja, die Juristerei ist so ein bisschen trocken, ich habe dich kennengelernt, und alles andere oder diese Themen haben sich überhaupt nicht bewahrheitet. Deswegen freue ich mich sehr, dass wir heute mal hier so einen Aufschlag machen. Ich kann mir mal vorstellen, dass wir eine kleine Staffel draus machen, weil sicher viele Rückfragen kommen, gerade zum Einsatz von künstlicher Intelligenz, und deswegen würde ich sagen stell dich doch vielleicht selbst nochmal kurz vor, wer bist du so als Privatperson, und was genau machst du beruflich.

Speaker 2:

Sehr gerne. Also, wie du schon gesagt hast, mein Name ist Nikolaj Greiner, ich bin Jurist, also ich habe das ganze Thema studiert und habe mittlerweile meine eigene Kanzlei, die Private Legal, so als zusätzlich zu meinem eigentlichen Job. Ich arbeite bei der Hukuburg als Datenschützer, bin aber quasi hier als Privatmann Ansonsten du hast gesagt, seit 20 Jahren in dem Thema drin, wenn du den universitären Schwerpunktsbereich, wo das ganze IT-Richt und Datenschutz auch schon mein Thema war, mitzählst. Also, ich habe viele technische Entwicklungen mittlerweile mitgemacht, und ich brenne immer noch für das Thema. Und da kann ich gleich überleiten zu der Sache, die du gesagt hast Juristerei ist trocken.

Speaker 2:

Genau deswegen brenne ich so für die Themen IT und Datenschutzrecht, weil das alles andere als trocken, das ist eines sage ich mal der Rechtsgebiete, wo du dich am tiefsten eigentlich mit der Nebenmaterie, also außerhalb des Rechts mit der Technik befassen musst. Du musst kapieren, was da passiert, damit du mit den Leuten auch, sage ich mal, auf einem Level reden kannst. Du musst in der Lage sein, das Juristische in der Sprache vielleicht ein bisschen abzulegen und zu gucken, dass du da auf einen Nenner kommst, und das ist super spannend, und ich könnte mir eigentlich kein schöneres Berufsfeld vorstellen.

Speaker 3:

Ja schön. Also genau diesen Eindruck hast du mir auch bei unserem ersten Gespräch vermittelt. Deswegen habe ich gesagt lass uns unbedingt ein Podcast aufnehmen, weil genau darum geht es. Es geht auf der einen Seite natürlich die Einschätzung oder auch die Einordnung, besser gesagt in das Recht, was wir haben in Deutschland und in der EU, und auf der anderen Seite natürlich auch das Verständnis. Und vor allem, wenn du das seit fast 20 Jahren jetzt machst, dann kennst du natürlich auch die Wellen der Digitalisierung und KI. Ich habe es gestern in einem Meeting mal gesagt KI ist im Grunde um es mal zu vereinfachen, es ist ja nicht irgendwie KI gibt es ja nicht erst seit Chatchi BT, sondern das ist einfach eine weitere Entwicklung, klar eine Evolution-Stufe, wenn nicht sogar eine Revolution, aber im Grunde eine Weiterentwicklung der Digitalisierung. Deswegen jeder, der KI im Unternehmen einsetzen möchte oder sich damit beschäftigt, da muss sich zwangsläufig auch mit der Digitalisierung beschäftigen oder mit digitalen Prozessen beschäftigen. Deswegen gleich mal die Frage vorne weg Jetzt haben wir ja einen unfassbaren Hype erlebt mit Chatchi BT. Wir setzen das alle super gerne ein, und nicht nur dieses Tool, sondern auch andere Bilderstellungstools.

Speaker 3:

Jetzt haben wir gerade erlebt, dass wir Hollywood noch angreifen können, weil jetzt auch noch Filme möglich sind in der Top-Qualität, ich glaube, bis 60 Sekunden ist das unglaublich, was diese Technologie heute kann. Allein in den letzten drei Monaten habe ich gestern mal geschaut, was dort technologisch sich alles verändert hat. In drei Monaten, ja, also nicht drei Jahren, sondern wirklich in einem sehr kurzen Zeitraum sind schon Sprachmodelle auf den Markt gekommen, die einfach mal 50 Prozent mehr Power haben als die Version davor. Wie nimmst du das wahr? Wie gehen Unternehmen und die darin enthaltenen Menschen mit diesem Thema um? Ist es zu leichtfertigt, ist es noch nicht gut eingeordnet? Vielleicht einfach mal deine Perspektive, so als ersten Aufschlag.

Speaker 2:

Also ich würde gerne vorwegnehmen, ki, wie du gesagt hast, war ein Prozess, aber gefühlt hat es sehr viele Juristen und auch den Gesetzgeber am Ende dann doch überraschend. Man hat jahrelang gesagt, ki kommt, wir müssten da irgendwie mal uns mit befassen, und plötzlich war es wie Schnipp, und es war da Ein absoluter du hast das gesagt ein Hype, und jeder hatte plötzlich auch das Gefühl, wenn ich jetzt nicht aufspringe, bin ich zu spät. Dann ist mir quasi alles weggenommen am Markt, egal welche Branche das ist. Das ist mein Eindruck, und da kann ich nur sagen, ich meine, es ist gekommen, um zu bleiben, also nicht mit dem Gefühl rangehen, ich bin zu spät eingestiegen, also lasse ich es gleich. Aber du hast gesagt, wie setzen das manche zu leichtfertig ein? Ich glaube, bis zu einem gewissen Grad ja, eben aus der Angst heraus, was zu verpassen.

Speaker 2:

Aber ich habe auch schon viele erlebt, die sich da wirklich Gedanken machen, wobei es und vielleicht kommen wir da später noch mal drauf zurück ist natürlich schwierig, bei was, was über Nacht plötzlich da war, mit dem der Gesetzgeber gar nicht Schritt halten konnte, das so einzuordnen, dass ich sage, du bist da überall im zuckergrünen Bereich immer unterwegs, was vielleicht auch gar nicht sein muss. Aber es gibt schon so ein paar Faltsträge auf. Die muss man definitiv aufpassen. Die liegen im Kerngebiet, im Datenschutzrecht, die liegen in der neuen KI-Verordnung, die kommt, wir sprechen es nachher noch mal an.

Speaker 2:

Die liegen aber auch in Bereichen, mit denen man erst mal gar nicht so richtig das ganze verbindet Thema Urheberrechte oder irgendwas, weil du die Bildgeneratoren angesprochen hast. Das ist ein ganz heikles Thema. Also, das sind viele Dinge, die man beachten muss, und es ist gefühlt schon so, dass erst die Technik da war und sich jetzt Gedanken darüber gemacht wird, wie ordnen wir das ein. Aber das muss auch nicht schlechtes sein, weil, wie gesagt, auch der Gesetzgeber selbst, die Aussichtsbehörden hinten gerade dem technischen Fortschritt irgendwo hinterher, und das hat auch ein bisschen was mit dem Zeitgeist aktuell zu tun. Nichtsdestotrotz ist nämlich als Jurist mein Plädoyer wir müssen gucken, dass wir das am Ende des Tages dann trotzdem alles so einsetzen, dass wir uns nicht mehr Schwierigkeiten als Vorteile verschaffen. Aber aus meiner Sicht kann ich vorwegnehmen, geht das auch. Also.

Speaker 3:

Nikolaj, das mag ich so an dir, weißt du, das mag ich so an dir, weil du sagst, wir schaffen Möglichkeiten in einem rechtssicheren Raum oder versuchen das. Es geht ja gar nicht darum und sonst wäre auch unser Podcast so gar nicht zustande gekommen irgendwas zu verbieten durch Gesetzestext, sondern es geht wirklich darum, wir können uns für diese Technologie nicht mehr verschließen. Und die Frage ist wie kann ich das Ganze sicher für mein Unternehmen, für meine persönliche Identität einsetzen? Das ist das, warum wir uns hier heute getroffen haben. Ich habe ein ganz konkretes Beispiel.

Speaker 3:

Ich habe mit einem Freund von mir gesprochen, der ist im geholfenen Management eines Automobilkonzerns, und ich habe gesagt wie machten ihr das mit KI? Welche Tools setzen ihr da? ein? War voll neugierig, wollte wissen, wie effizient die in den Abteilungen arbeiten. Und dann hat er mir gesagt bei uns sind alle Ports gesperrt, wir können das gar nicht verwenden. Du profitierst nicht von dieser Technologie in deinem Unternehmen, deiner täglichen Arbeit. Und er sagt er doch. Und dann habe ich gesagt okay, wie machst du das? Und er sagt er, wenn ich aus einem Meeting komme, dann nehme ich das Protokoll quasi mit nach Hause und setze mich zu Hause hin. Da habe ich LGBT im Einsatz, und dann spreche ich die ganzen Sachen da rein oder tippt es und lass mir das Protokoll erstellen, wofür ich Stunden gebraucht habe in der Vergangenheit. Das schaffe ich dann einfach in wenigen Minuten Für mich als Nicht-Juristen. Ich hatte sofort Temperatur. Wie geht es dir damit?

Speaker 2:

Ja als Jurist, der sich damit der Geschichte eingebe fast kriegst du auch Temperatur Aber jetzt gar nicht mal wegen dem möglichen Rechtsverstoß, der dabei irgendwie passiert, sondern weil ich es, wie dein Freund ja gesagt hat, im Unternehmen sind die Ports bei ihm gesperrt. Er nimmt quasi die Daten irgendwo mit nach Hause, und da reden wir noch gar nicht von Datenschutz. Das sind wir dabei dass er sehr, sehr sensible Unternehmensdaten plötzlich in ein am Markt frei verfügbares Tool, von dem wir und dann müssen wir ehrlich zu uns sein von dem wir nichts wissen, dass für uns eigentlich eine Blackbox darstellt.

Speaker 2:

Gibt er sehr sensible. Ja, ich finde das übrigens immer sehr amüsant, wenn Jetschie BT wieder sagt wir sind so überrascht, was unser Modell alles kann, und da werden dann teilweise je nach je nach quasi Position in dem Unternehmen, die dein Freund da bekleidet, für ihn ein Beispiel gehen da Sachen über den Äther, wo ich gar nicht weiß, was da passiert, also nicht umsonst übrigens haben. Samsung hat sehr schnell Lehrgeld bezahlt bei dieser Sache mit Jetschie BT damals. Die haben das dann sehr schnell eingestellt, und wenn ich sowas im Unternehmen aktuell anbiete, dann sollte ich das zumindest auf einer organisatorischen Ebene heben, dass ich allen Leuten das nötige Rüstzeug mitgebe, dass die auch kapieren, was das Gefährliche ist, was gefährlich ist, wenn sie da tun.

Speaker 2:

Wenn sich jetzt jemand, sag ich mal einfach zur Unterstützung bei einer Formulierung beim Text formulieren helfen lässt, da verletzt du da weder Rechte. Also da ist es sehr, sehr schwer, irgendwie einen Schaden anzurichten. Wenn du dann aber komplette Unternehmensdokumente da reinlädst, um sie dir zusammenfassen zu lassen, dann weißt du am Ende des Tages aktuell nur sehr bedingt, wo deine Daten tatsächlich landen, und das ist die Crux bei diesen offenen Modellen, klar. Also, du kannst mittlerweile bei JGBT ja auch irgendwie da Häkchen setzen. Soll nicht zu Trainingszwecken gespeichert werden?

Speaker 3:

Ist das safe? Ja, gut.

Speaker 1:

Nee, das ist nicht safe.

Speaker 2:

Also und da von mir quasi erstmal der erste Praxistip, wenn ich sowas einsetze, jetzt aktuell mit, sage ich mal, jetzt vielleicht nicht ganz frei verfügbaren weil ein bisschen ein Obolus muss als Unternehmen ja so trotzdem zahlen Aber doch rentig recht günstig am Markt verfügbaren Tools wie jetzt JGBT als Beispiel, einfach weil es der große. Oder nimm das neue Gemini von Google Schön. Wenn du da das einsetzt, dann sind also meiner sich zwei Dinge irgendwo eigentlich unersetzlich. Also einmal, du musst deine Mitarbeiter damit wirklich vertraut machen, du musst denen sagen, was darfst du, was darfst du nicht. Als Jurist sage ich immer ja, wir vertrauen den Menschen.

Speaker 2:

Aber eine technische Sicherung ist am Ende des Tages meistens besser. Gar nicht mal, weil die Leute was Böses anstellen wollen, sondern weil die einfach sorglos sind im Umgang, und da ist es aktuell das Beste, wenn du das halt noch quasi so ein bisschen das Modell als solches, ein bisschen Sandboxt, also es nicht frei auf dem Server betreibst. Jetzt mit JGBT kannst du beispielsweise, wenn du jetzt von einem etwas größeren Unternehmen sprichst die haben wahrscheinlich im Moment alle irgendwie Aschatenance oder irgendwas den kannst du in einem Ascher betreiben, wo du zumindest zwar noch nicht die Hoheit, die am Ende des Tages wünschenswert wäre, hast, aber du hast zumindest ein riesen Risiko des Datenabflusses irgendwo zumindest halbwegs minimiert. Und das ist das, wo ich sage, das ist eigentlich das, was ich heute machen muss, wenn ich nicht wirklich zu sorglos an die Numero angehen möchte.

Speaker 3:

Ja, ich würde sogar noch weitergehen. Also, ich glaube, die großen Konzerne haben damit weniger ein Thema, weil die haben natürlich die KI-Kompetenzen im Haus, die haben das nötige Kleingeld, um vielleicht auch in solche Ascherumgebungen zu investieren. Ich glaube, wir tragen so jetzt auch am Gründerzentrum in Koburg so eine Fahne vor uns her und sagen KI für alle. Also, es muss ja auch für kleine und mittelständische Unternehmen möglich sein, ki einzusetzen und das datenschutzkonform, und wir beschäftigen uns dort einfach auch mit unseren Startups damit. Wie können wir den Unternehmen helfen? wie können wir den Unternehmenslösungen anbieten, um auch mit ihren eigenen Daten zu arbeiten, aber das möglichst datenschutzkonform, weil es geht ja immer um den einen dummen Fall, wo dann irgendwelche Daten das Unternehmen verlassen, die mir wieder zum Verhängnis werden.

Speaker 2:

Also das müssen nicht mal personenbezogene Daten sein, wo du dann im Datenschutzrecht drin bist. Wie gesagt, das können auch Unternehmensgeheimnisse sein Kommt immer auf die Branche drauf an. Wenn du jetzt Automobilbranche sagst als Beispiel vorhin, die haben hochsensible Unternehmensdaten, das ist ja Samsung auch passiert, dass die Entwickler da plötzlich eigentlich Geschäftsgeheimnisse reingehauen haben und die dann halt irgendwo anders aufgetaucht sind, wenn es blöd läuft, weil du ja nicht weißt, ob die nicht doch irgendwie jemand wieder aus diesem Modell herausholen kann am Ende des Tages. Aber das, was du gesagt hast, hier auch den Kleinen zu helfen, das Datenschutzkonform machen zu können, das ist genau, sage ich mal, ein Teil unseres Themas, über das wir heute reden wollen, aus meiner Sicht Absolut Dass wir an der Front sagen können wir können hier im ersten Mal wir nehmen mal den europäischen Kontext im europäischen Raum vielleicht Dinge schaffen, für die die großen US-amerikanischen Tech-Unternehmen überhaupt kein Gefühl haben. Und das ist das, wo wir vielleicht einfach besser sein können in dem Thema vertrauenswürdige KI.

Speaker 3:

Ja, Das ist ja auch das, was wir eingangs gesagt haben, dass das sogar ein Wettbewerbsvorteil wäre, dass wir sagen hey, wir entwickeln hier KI-Lösungen, die datenschutzkonformen sind, und die lassen sich natürlich dann auch darüber hinaus im weltweiten Markt anbieten.

Speaker 3:

Weil wir sehen das ja so schön zum Beispiel in China, dass diverse Scorings gibt, wenn ich mich entsprechend verhalte, irgendwelchen Regeln unterwerfe, und wenn ich das eben nicht tue, dann entsprechende Konsequenzen wie teurere Versicherungen und dergleichen, und das funktioniert eh auch alles schon mit KI und sorgt ja dafür, dass meine Identität, die ja durchs Internet und Social Media sowieso schon sehr transparent ist, jetzt auch noch zu bestimmten Privilegien führt oder den Entzug von gewissen Privilegien führt. Also ich glaube, dass wir damit natürlich einen riesen Vorteil haben, wenn wir uns genau auf das, was uns eigentlich in den letzten Jahren genervt hat, nämlich das Thema Datenschutz und irgendwelche Cookie-Banner wegklicken und so weiter, wenn wir das in den Fokus setzen. Lassen Sie uns mal einen Schwenk machen auf die Regulierung von KI, bevor wir weiter über den Wettbewerbsvorteil sprechen, weil ich glaube, diese Grundlage im Kopf zu haben, was das eigentlich bedeutet und was das eben dann auch in der Konsequenz auch für eine Chance ist, wäre nochmal ein ganz wichtiger Punkt. Kannst du nochmal so ganz kurz wiedergeben, was der AI-Act oder die KI-Verordnung eigentlich ist und was die regeln soll.

Speaker 2:

Ja, also letztlich hast du, wenn du von der Regulierung von KI-Modellen redest, hast du aktuell zwei große Rahmenwerke. Du hast natürlich immer dann, wenn es um personenbezogene Daten gibt, die Datenschutzgrundverordnung. die haben wir schon länger, die haben wir seit 2018. Und jetzt kommt die KI-Verordnung dazu, also das, was als AI-Act, also im englischen Begriff, was auch durch die Medien geht, was auch dieses Zeheringeln im europäischen Gesetzgebungsprozess ja auch durch die Medien gegangen ist, Kann vielleicht in der anderen Folge mal darüber reden, wie schwierig so was ist?

Speaker 2:

Und diese Verordnung ist jetzt quasi in den letzten Zügen. Die muss nur noch vom Europäischen Parlament unterschrieben werden. Das ist eine Formsache. Dann wird die erst mal im Gesetzblatt veröffentlicht, und 20 Tage danach ist die einfach da. Und was macht jetzt diese KI-Verordnung? Diese KI-Verordnung geht risikoorientiert an die Sache ran. Also, diese KI-Verordnung möchte einfach die Risiken, die mit KI einhergehen, und zwar besondere Arten von KI, reduzieren, möchte ich jetzt mal sagen. Das heißt, du hast in der KI-Verordnung hast du einen Bereich, das nennt sich verbotene KI. Die ist nicht erlaubt. Also, die ist einfach per se mit wenigen Rückausnahmen. Das Gesetz ist ein bisschen komplex. Erst macht es einen Grundsatz auf, und dann gibt es wieder, aber dafür braucht man am Ende des Jahres halt noch die Juristen. Was wären verbotene? Das, was du jetzt hier über China gesagt hast, dieses Social Scoring und daraus Nachteile für Menschen ziehen durch eine gezielte Analyse seines Verhaltens in seinem Sozialbereich, das wäre beispielsweise etwas, das ist da aufgelistet als verbotene KI. Was hätten wir noch bei den verbotenen KI's? Was haben wir da drin?

Speaker 2:

Manipulative Techniken, um Leute zu beeinflussen, ein potentiell schädliches Verhalten vorzunehmen, für sich oder für andere. Ausnutzen von besonders Schutzbedürftigen Personen, also Kindern, alten Leuten, leute, die halt einfach aufgrund des eigenen Zustandes nicht in der Lage sind irgendwie da, einen menschlichen Verstand dagegen zu setzen, dass man einfach diese Schwächsten in der Gesellschaft jetzt völlig ohne Wertung durch KI noch übervorteilt und da irgendwie was ausnutzt. Also du merkst schon, es geht wirklich auf Sachen, die wirklich schon hart sind, wo du die hörst, und du hast sofort ein absolutes Unrechtsgefühl dabei. Anderes Thema biometrische Identifizierung anhand besonders sensibler Merkmale Rasse, sexualität ist, glaube ich, noch mit drin, wo du sagst das ist was da.

Speaker 2:

Wenn ich halbwegs mit demokratischen Werten aufgewachsen bin, fällt mir das schon auf, dass das schlecht ist, wenn ich die Menschheit in schwarz oder weiß unterteile, und das sind so Dinge, die stehen da drin. Deswegen braucht, glaube ich, für diesen verbotenen Praktiken hier bei uns auch kein Unternehmen groß Angst haben, dass es da wirklich komplett hart reinfällt, weil das sind wirklich Dinge, wo der Gesetzgeber gesagt hat, die sind so jenseits von wirtschaftlichen Interessen, dass ich das noch irgendwie rechtfertigen kann, dass die einfach verboten gehören.

Speaker 3:

Ist absehbar, dass das Feld enger gefasst werden muss, um es einfach besser regulieren oder auch kontrollieren zu können. Ich will sagen, ich habe mich mit vielen Technikern auseinandergesetzt und Nerds, die KIs entwickeln, die eigene KI-Modelle haben, und es gibt einen Punkt, an dem es aufhört, dass sie verstehen, was das System am Ende tut. Es ist eine Blackbox. Sie wissen teilweise nicht, wie kommt die KI oder das KI-Modell zu einem bestimmten Ergebnis, und das sind jetzt generative KI-Modelle. Wir reden ja noch nicht über Artificial General Intelligence, also die nächste Ausbaustufe Oder die Ausbaustufe, wo eine KI sagt hey, weiß ich gerade nicht. Ich frage mal die andere KI, ob die mir das eben schnell beibringen kann. Es ist der Anfang von etwas, ganz sicher, aber wie sieht es aus, auch mit der Übernahme von Verantwortung und Haftung, wenn ich gar nicht weiß, was mein KI-Modell da am Ende anstellt und gegen den AIEigt schürzt?

Speaker 2:

Schwierig. Also, wir haben ja außer diesen verbodenen Praktiken gibt es dann noch die Hochrisiko-KI. Das ist also, kann man sich vorstellen, entweder Sachen, die jetzt schon irgendwie sicherheitsrelevant sind. Ein KI-System in dem Auto ist sicherheitsrelevant, deswegen muss es besondere Ansprüche erfüllen, beispielsweise. Dann hast du noch in der Abgrenzung die General Purpose AI nennt es, der AIEigt. Das ist das, was wir jetzt, glaube ich, langläufig unter generativer KI, also eine KI mit einem multifunktional einsetzbaren Zweck. Grundsätzlich geht die KI-Verordnung erst mal vom Zweck her Wozu ist das entwickelt, was soll das tun? Aber die KI-Verordnung bringt auch das mit, was du gesagt hast was mache ich denn, wenn mir hinterher auffällt, dass da irgendwie unerwünschte Ergebnisse rauskommen? Also, da sind ein ganzes Konklo-Marat, und das ist, glaube ich, das, was viele Angst vor der Überregulierung haben, an Überwachungspflichten drin, an Dokumentationspflichten, teilweise auch Pflichten, dass du dein KI-Modell verstehen können musst, und das wird, glaube ich, schon. Gerade für Start-ups, die in diesem Bereich der Hochrisiko-KI unterwegs sind Wie gesagt, die ist teilweise enumerativ auch auch gelistet gibt es einen Anex 3 zu dieser Verordnung. Da steht da aufgezählt drin, was unter Hochrisiko-KI beispielsweise zu fassen ist, no-transcript, und für die gelten halt diese besonderen Pflichten aufgrund dieses Risikos, das damit schwingt. Was diese Verordnung gerade nicht regeln möchte, ist alles, was außerhalb von der generativen KI das ist ja nochmal ein extra Teil in der Verordnung alles, was unterhalb dieser Hochrisikoschwelle ist, da gibt es kaum irgendwelche Regelungen in der KI-Verordnung dazu.

Speaker 2:

Also ein bisschen Transparenz, also ein bisschen Transparenzpflichten im Sinne wenn jemand mit einem KI-Chatbot redet, muss er wissen, dass er mit einem Chatbot redet. Es ist augenfällig. Wenn das Ding schon KI-Chatbot heißt, muss ich nicht nochmal reinschreiben Sie chatten mit einem KI-Chatbot. Was aber ganz spannend ist bei diesen ganzen Aufzählungen von Hochrisikokai und den damit einhergehenden Pflichten gibt es teilweise so genannte delegierte Rechtsakte an die EU-Kommission beziehungsweise auch Möglichkeiten für die EU-Kommission, diese Liste zu erweitern, ohne den AI-Act neu zu erlassen zu können. Das macht in einem technischen Umfeld, was sich rasant entwickelt. Wenn wir jetzt vielleicht noch gar nicht vorhersagen können, was für Systeme ein hohes Risiko bergen, macht das durchaus Sinn. Dass so nicht jedes Mal, wenn man weiß, wie so eine EU-Gesetz zustande kommt und wie lange sich das ziehen kann, wenn nur genug Leute dagegen oder dafür sind, macht das durchaus Sinn. Ansonsten ist es relativ technologieneutral formuliert, das Ganze.

Speaker 3:

Das würde ja bedeuten, jetzt sind wir mal an. Ich bin ein Startup, ich habe ein eigenes KI-Modell. Das ist ein Chatbot, mit dem ich irgendeinen Kundenservice anbieten kann, und den User auf der Website. Also, ich verkaufe meinen KI-Bot an irgendein Kunden, der setzt das auf der Website ein, und die Nutzer kriegen irgendwie hin, dass der Bot nicht nur das Nutzungserlebnis fördert, sondern auch noch eine Anleitung gibt, wie man eine Bombe baut.

Speaker 2:

So, wer haftet, hast du den Salat. Also lässt sich doch nicht so richtig einfach beantworten. Ehrlich gesagt, ich vermeide den juristischen Satz. Es kommt drauf an, weil den hasse ich wie die Pest. Was der AI-Act auch enthält, ist praktisch so eine Verkettung. Du hast Pflichten von Unternehmen, die KI-Modelle erstellen, also der Hersteller des Systems, der muss dem Nachgelagerten, der das Modell vielleicht vertreibt oder einsetzt, die entsprechenden Informationen zur Verfügung stellen, dass das Ganze auch transparent dargestellt werden kann, dass der weiß, was diese KI quasi macht. Umgekehrt.

Speaker 3:

Das weiß ich nicht, das ist ja mein Problem.

Speaker 2:

Und das ist ganz ehrlich, das wird eines der spannendsten auch im Datenschutzrecht außerhalb der KI-Verordnung wird eines der spannendsten Themen sein, KI irgendwie erklärbar zu machen oder sie zumindest halbwegs erklärbar machen, weil da sind Dinge, die stehen da tatsächlich auch drin, dass man das verstehen können muss, was da passiert, Und das ist, was auch. Da kannst du jetzt gegebenenfalls, wenn du die jetzt schon damit auseinandersetzt, kannst du gegebenenfalls irgendwie dir auch wieder ein Wettbewerbsvorteil sichern, Weil ich glaube, die ganz großen Modelle, die jetzt mit Trainingsdaten einmal das ganze Internet also ich habe neulich einen Kollegen gehört, der gesagt hat, eigentlich ist das, was JetGBT gemacht hat beim Trainieren der größte Kunstraub der Menschheitsgeschichte, Dass du mit Modellen, die wirklich auch Validentrainingsdaten beruhen, wo du auch die Quellen der Trainingsdaten kennst, deutlich einen Vorteil haben werden gegenüber denen, die einfach erstmal alles eingespeist haben, ohne überhaupt da irgendwie eine Qualitätssicherung zu machen oder irgendwas. Ich glaube, was ich gehört habe, IBM ist bei sowas relativ weit vorne mit diesem Granitmodell, weil die da mehrere Sicherungen eingebaut haben vom Filter. Dann wird das rausgefiltert, dann wird das rausgefiltert, dass du hinterher zumindest zu einer halbwegs akzeptablen Erklärbarkeit kommst bei den Beinen.

Speaker 2:

Und das wird, glaube ich, eine der größten Herausforderungen, Dieser Transparenzgedanke, der ja auch im Datenschutzrecht immer mit schwingt, Weil es ist schön, wenn im Datenschutzrecht sagt ich lass jemand eine Einwilligung unterschreiben für irgendwas, aber wenn du eben dich erklären kannst, den Wasser einwilligt, hast du schon wieder ein Problem. Und das ist das ganz spannende, Anki, dass wir jetzt eine Technologie haben, die so schnell geworden ist, dass halt, wie du vorhin gesagt hast, selbst manche Entwickler ihr eigenes Modell nicht mehr erklären können.

Speaker 3:

Weil ich glaube, die eine Perspektive auf das Ganze das ist interessant was du sagst, ist das, was ich an Daten reinpacke in so ein System, was ich dann vielleicht noch filtern kann. Aber was ja Out of Control ist, ist ja im Grunde das Assoziative. Also was macht das System mit dem, was gepromptet wird, was eingegeben wird, was ich von dem System will? Also wie verknüpft ist diese Information völlig selbstständig, und ich kann eben nicht kontrollieren. Also Stand heute in allen großen LLMs, also Large Language Models, was da am Ende rauskommt, und das sehe ich halt als riesen Thema, also Imputs, das Outputs-Thema.

Speaker 2:

Das ist das, was ich an den anderen finde. Ich glaube, du kannst der Sache auf. Du brauchst halt aus meiner Sicht, damit du das halt wirklich vernünftig hinbekommst Du brauchst ein Input-Filter. Du kannst nicht beliebige Trainingsdaten machen, und du wirst am Ende wahrscheinlich auch immer einen Output-Filter haben brauchen, der dir das, was du sagst, das, was ich nicht vorhersehen kann, das im Modell passiert, in dieser quasi Blackbox where the magic happens. Da brauchst du noch mal ein Output-Filter, um zu sagen okay, es gibt folgende Dinge, die will ich ja auf keinen Fall sehen, dass da irgendwie rauskommt. Also das Thema des Filterns nochmal der Antworten und des Inputs, das werde ich bekommen, das werde ich haben das Problem. Also ist ja jetzt viel über den RIG geschimpft worden, überregulierung etc. Ja, europa neigt dazu, alles sehr detailliert zu regulieren, und der RIG ist auch wirklich aus meiner Sicht weit weg davon, perfekt zu sein. Aber es ist, glaube ich, gut, dass wir ihn jetzt haben und ihn bekommen werden, weil du kannst, mit dem, was da drin steht, kannst du arbeiten. Es gibt auch den Unternehmen haltwegs eine Rechtssicherheit, um zu wissen, was muss ich jetzt irgendwo erfüllen? Da braucht es auch ganz groß im RIG angelegt sind so Sachen wie Managementsysteme. Ich muss irgendwie das Risiko beherrschbar machen, indem ich Risikomanagement betreibe Klassische Schadenshöhe mal Eintrittswahrscheinlichkeit was kann da passieren, und wie kann ich das beherrschen? Dokumentationen und so was.

Speaker 2:

Also ja, das Ding bringt Verwaltungsaufwand im Bereich der Hochrisiko-KI und im Bereich der, wenn du tatsächlich diese General Purpose-AI-Modelle erstennst, also das, was bei uns jetzt die Large Language-Modelle sind, aber es ist erfreulich wenig komplett verboten. Man geht halt tatsächlich mit diesem Risiko-Gedanken daran, um zu sagen okay, wir sind uns alle einig, ki bringt Risik mit, die müssen wir irgendwie für Menschheit klingt jetzt so groß, aber die müssen wir halt für die Leute, die das benutzen, irgendwo eingrenzen, diese Risiken, und da wird es einfach ohne Regulierung auch nicht funktionieren. Und nicht umsonst sind übrigens gerade die Amerikaner dran, wie ich zuletzt gelesen habe, dass sie jetzt ein bisschen vom AI-Act auch abschreiben, um zu gucken, wo es dahin geht. Also, man kann sich das Ganze so ein bisschen produktsicherheitsrechtlich fast vorstellen, also wie bei einem Auto Da müssen auch die Teilen in einem gewissen Prozess durchlaufen, um hinreichend sicher zu sein, und sowas bringt das jetzt für das Thema Hochrisiko-KI.

Speaker 3:

Ja, also ganz ehrlich, ich bin sogar stolz, dass das so schnell ging, weil wir haben ja, ich glaube in Brüssel bei der EU 2009 eingereicht, dass es einen einheitlichen USB-C oder USB gar nicht USB-C, den gab es damals noch gar nicht aber USB-Standard gibt, und in 2025 ist es jetzt wirklich verpflichtend. Wir wollen nicht ausrechnen, wie lange das gedauert wird.

Speaker 3:

Also von daher das jetzt nur so als kleiner Seitenhieb. Also ich finde es echt cool, dass wir das so schnell auf die Bahn gebracht haben, einfach auch deshalb, weil, wenn man sich ein bisschen mit dem Thema KI beschäftigt also ein bisschen meine ich mit wenn man so wirklich Einblicke hat in das, was damit alles möglich ist Ich hatte hier im Podcast auch schon jemanden von der Bundeswehr sitzen Also es ist gar nicht vorstellbar, wenn man nur ChatGPT kennt, was damit noch so alles geht. Das heißt, wir müssen unbedingt einen Anfang machen, weil natürlich auch das Thema Cyber Security ein großes Thema. Also wir profitieren ja nicht nur, weil es uns effizienter macht, sondern es macht ja auch die Hacker effizienter. Ich habe gelesen weniger als 10 Dollar kostet einen Angriff auf einer Website mit KI. Also das ist überhaupt keine Zeitkomponente, ist wesentlich schneller geht das heute.

Speaker 2:

Das war es schon immer in der IT Security. Also war schon immer so ein Rattenrennen Wer ist schneller? die Angreifer sind meistens schneller, weil der Verteidiger nur reagiert, und das fördert KI definitiv. Nochmal, weil du jetzt von der Bundeswehr jemanden erwähnt hast das ist übrigens einer der großen Kritikpunkte der KI-Verordnung, wobei da halt die geopolitische Lage auch mit rein spielt. Das hat Themen wie Verteidigung und öffentliche Gewalt weitestgehend ausgenommen sind.

Speaker 2:

Also das müssen die Länder selbst regulieren, ist auch immer so ein bisschen die Frage, wie weit die EU regulieren darf in gewissen Bereichen. Also je nachdem, wie man das Weltgeschehen einschätzt, ist das jetzt richtig so oder falsch. Aber es ist eine der Kritikpunkte an der KI-Verordnung, dass das eben ausgenommen ist.

Speaker 3:

Ja, um mal ein ganz konkretes Beispiel zu nennen es geht ja unter anderem darum, dass Menschen und selbst und deren Grundrechte nicht gefährdet werden laut AI Act. So, und da bin ich im militärischen Jahr gleich ganz weit vorne, wenn ich anfange, drohnen als Kamikaze Flugobjekte auf irgendwas drauffallen zu lassen, wo Menschen drin sitzen, oder per Schwarmintelligenz da noch ein paar mehr Aktionen fahren kann. Also von dem her wäre das gar nicht. Das muss das Militär, glaube ich, in einem eigenen Act, militär AI Act oder sowas regeln.

Speaker 2:

Also, das würde ja gar nicht passieren. Ja, es ist, glaube ich, aktuell in der Situation, wo ja irgendwie Abschreckungen wieder populär geworden ist. Aber da kommen wir jetzt zu weit ins politische, lass uns zum Juristischen zurückgenommen.

Speaker 3:

Ja, ich finde es ganz interessant, weil sagen wir mal, es gibt ja immer die White-Hacker und die Black-Hacker. Wir versuchen, uns da natürlich ethischen Grundsätzen zu bedienen und uns daran zu halten, was voll wichtig ist, gerade wenn ich aus meiner Kinder denke und dergleichen wenn man auf der anderen Seite reguliert, halt auf der anderen Seite auf der schwarzen Seite niemand, aber es ist, finde ich, total wichtig, genau das per Gesetz einfach auch in die entsprechenden Fahrwasser zu bringen. Lass uns mal und ich habe gesagt, wir schaffen heute mal so ein paar Grundlagen, dass man es einigermaßen einordnen kann Beim nächsten Mal machen wir einen Deep Dive zu einem oder anderen Thema. Also das schon als kleine Ankündigung. Lass uns mal über die Wettbewerbsfähigkeit sprechen, weil das finde ich ein ganz spannender Punkt, weil die Unternehmen, die wir haben in Deutschland, auch in unserer Region, natürlich einen riesen Vorteil haben, wenn sie das mit ihrem Business-Modell verbinden, also ein eigenes KI-Modell mit ihrem Geschäftsmodell verbinden, um datenschutzkonform besondere Leistungen anzubieten. Wie siehst du aus der Datenschutzperspektive betrachtet diesen Wettbewerbsforder im globalen Geschehen?

Speaker 2:

Ich glaube, das zwei Ansatzpunkte. Du hast einmal das Thema. Ich glaube, ki ist was sehr sensibles, auch für die Menschen. Es geht ja eher immer so richtig in die Richtung. Man denkt ja in die Richtung persönlicher Assistent. Und wie kann uns das künftig im Alltag und ich teile mit einem persönlichen Assistent nichts, wo ich Angst haben muss, dass das hinter 7000 anderen Leuten irgendwie wieder ausgespuckt wird Das ist einfach so der Vertrauensansatz, und vielleicht habe ich da einfach den Glauben in die Menschheit trotz Facebook und Google noch nicht verloren. Das ist aber einfach nicht, dass, wenn der Mensch die Wahl hat zu einer vernünftigen Alternative, wenn er die Wahl hat, ich kann das machen, ohne dass ich mich gedanklich nackt ausziehen muss, oder mit bin ich immer noch da. An sich wird sich der Mensch dafür entscheiden, doch seine Privatsphäre irgendwo zu behalten. Und das ist ein Ansatz, glaube ich, der lohnt, dass man den verfolgt, dass man den Leuten zeigt passt auf, bei uns kriegst du was, aber du kriegst es sicher. Und jetzt nicht nur im Hinblick vielleicht auf Datenschutz, sondern es ist auch IT sicher. Es ist vielleicht das, was wir über Filtervorein gesagt haben. Da ist nicht alles reingeflossen. Das ist, was damit schaffst du, glaube ich, vertrauen, und je mehr die Leute diesem ganzen Thema vertrauen. Ich habe neulich weiß nicht, war die Umfrage von dir vertrauen sie der KI vollständig? die war, glaube ich, von dir, und ich glaube, wenn du dann den ganz großen Wurf irgendwann hinkriegen willst, dann musst du die Leute dazu bringen, dass sie da Vertrauen haben, und das kriegst du nur mit nem guten Konzept in Richtung Datenschutz und Sicherheit hin.

Speaker 2:

Das ist der eine Aspekt. Jetzt wird immer geschimpft über die EU. Wir sind ja im globalen Geschehen dadurch gar nicht wettbewebsfähig. Jetzt lassen wir mal die bestrebungen, die US-amerikanischen Bestrebungen weg, da auch irgendwas zu machen. Das ist auf der Weltebene marktes Sein. Also das muss man ganz klar sagen.

Speaker 2:

Wenn ich mich als Europäer an Regeln halten muss und möchte, was in den USA verkaufen an jemanden, der sich dort nicht an Regeln halten muss, dann habe ich dann Wettbewerbsnachteil erst mal. Wie gesagt kommt dann auch auf die Mentalität der Bevölkerung an, ob ich diesen Datenschutz-Sicherheitsgedanken da effektiv spielen kann. Wenn ich mir jetzt aber Europa als wo ja erst mal die meisten Start-ups denken, wenn ich mir Europa jetzt vorstelle als Wettbewerbsmarkt ich stelle mir manchmal die Frage, was würde denn passieren, wenn wir keinen regulierten Markt hätten? Könnten wir gegen die großen Konzerne, die ja trotzdem dem auch unterlegen, könnten wir da überhaupt bestehen, oder würden die uns einfach überrollen, wenn die sich genauso wenig an Regularen halten müssten wie bei sich zu Hause in Ländern, wo halt das Thema nicht so gehandhabt wird. Es hat auch eine gewisse Schutzfunktion, muss man an der Stelle sagen, und ich glaube, das wird manchmal zu wenig gesehen, aber nichtsdestotrotz für mich der Ansatzpunkt tatsächlich Vertrauen schaffen in sowas ist immer gut.

Speaker 2:

Du hast also ein kurzes Beispiel aus meinem Kanzleialltag Du bist als Jurist. Wenn du jetzt als Rechtsanwalt tätig bist, hast du ja nicht nur hier irgendwie die normalen Datenschutzrechte, du musst auch Berufsgeheimnisse, waren und solche Dinge. Und da gibt es gerade in Deutschland relativ viele Berufsgruppen, die auch irgendwie unter Berufsgeheimnisse oder sowas fallen. Das heißt, du kannst nicht einfach hergehen und sagen, ich berate jetzt meine Mandanten online mit einem Tool, wo ich weiß, da hört Gott und die Welt mit, sondern, du brauchst etwas, was hinreichend sicher ist, dass du diesen Berufsgeheimnis irgendwie herwerten kannst.

Speaker 2:

Und das hast du in ganz, ganz vielen Bereichen. Und wenn die Leute nicht auf Datenschutz hören wollen an der Stelle, dann müssen sie mal an ihre Unternehmensdaten einfach denken, weil die willst du ja auch nicht offen irgendwo preisgeben. Das ist das, wo wir eingangs gesagt haben, wenn wir jetzt hier JETT-TBT in der offenen Version verwenden, und ich gebe da sensible Unternehmensdaten rein. Das Protokoll der letzten XY-Sitzung Gesellschaftsverfassamlung, ja, gesellschaftsverfassamlung. Dann hast du im Worst Case einer, der irgendwie durch einen Prompt blöderweise da drüber steubert, und der kriegt das vielleicht da wieder raus. Dass, wenn den Leuten bewusst ist, haben wir hier, glaube ich, einen echten Wettbewerbsvorteil, da ins Rennen zu gehen und sagen Leute, ihr bekommt das bei uns auch, aber ihr bekommt das auf eine Art und Weise, dass ihr nicht nur gesetzlichen Anforderungen genügt, sondern dass ihr vielleicht auch nachts ein bisschen ruhiger schlafen könnt.

Speaker 3:

Ja, und es gibt ja viele Beispiele. du hast mit Samsung ja schon ins Aufgeführt, wo das ein Problem ist. ja, aber wo das natürlich auch langfristig, gerade wenn sie das Ganze weiter so entwickelt und der Zugriff über andere KI-Systeme auf entsprechende Daten, das ja auch schnell dann wirklich also unternehmerischen Disaster sein kann. Ja, also vielleicht auch gerade so bei kleineren mittleren Unternehmen. also willst du keine Klage haben zum Thema Datenschutz, weil irgendjemand rausgefunden hat, dass deine Daten eigentlich offen liegen?

Speaker 3:

Ja, Interessant finde ich auch wie bereit will ich ja dann doch das Ganze an Informationen geteilt wird. Also ich bin erstaunt, dass wir so in den vergangenen Jahren immer wieder Firewalls gebaut haben, und wir wollten das Ganze sicher machen. Aber seit dem KI gibt es so ein Hype, das gar nicht darüber nachgedacht wird, inwieweit vielleicht Chatchi-BT für mein Unternehmen gänzlich ungeeignet ist. Ja, jetzt kann ich natürlich sagen, ich bin jetzt ein Schreiner, ja, jetzt für mich nicht so wahnsinnig, unternehmensgeheimnisse schützenswert oder so, aber das Thema Datenschutz letztendlich schon.

Speaker 2:

Aber das ist ja eine Geschichte, die kannst du ja risikoorientiert betrachten. Ja Also, dass du sagst okay, ich mache nur Folgendes damit, und dann mag das im Einzelfall okay sein. Aber ich würde jeden davon abraten, jetzt in solche aktuell offenen Systeme irgendwie den halben Kundenbestand irgendwie da reinzuspielen, weil das geht einfach nur nach hinten los.

Speaker 3:

Ich glaube, wer hat noch nicht mal das. Also so viel traue ich den Leuten schon zu. Aber jetzt nimm mal einen Praktikanten Ja, der hat gerade neu angefangen, kennt sich noch nicht mit den ganzen Gegebenheiten aus, und der soll mal schnell was machen. Ja, schreibt mal das schnell zusammen, fasst mal das hier schnell zusammen, recherchiert das mal ganz schnell, was wir für unsere Patentanmeldung brauchen, oder so weißt du, wie schnell landen die Daten dann im Netz. Ich habe mit einem Unternehmen mal gesprochen. Ich habe gesagt wie regelten ihr das? Ihr setzt Chabrot-BT ein, wie macht ihr das? Wie stellt ihr sicher, dass keine Daten das Unternehmen verlassen? Der einzige Antwort war und das machen, glaube ich, viele Unternehmen so dass sie einfach sagen wir bieten also Weiterbildung an, wir sensibilisieren die Leute darauf, aber eine echte Kontrolle am Ende des Tages haben wir nicht.

Speaker 2:

Ja, und also ist es auch übrigens der Grund, warum ich glaube, dass es bei großen Unternehmen, die die Möglichkeiten haben, langfristig einfach wahrscheinlich auf du nimmst dir ein Teil und trainierst das mit deinen Daten in einer Umgebung, die du beherrschen kannst dass es darauf bei vielen Dingen hinauslaufen wird, weil das einfach die Variante ist, die du am leichtesten beherrschen kannst, die du transparent gegebenenfalls auch darstellen kannst, weil du sowohl die Hand auf den Input, gegebenenfalls dann durch Filtertechniken auch auf den Output hast. Und das ist das, was ich gesagt habe. Man muss halt einfach gucken, dass man diese Wahnsinnstechnologie Irgendwo in Bahnen lenke, die sowohl das positive da rausholen, was ja. Also brauchen wir nicht drüber reden. Ich mein, du hast mich jetzt kennen gelernt, ich bin auch so kleiner technik Technikfreund, anders könnte ich mein Job gar nicht machen. Das ist das tolle an meinem beruf, dass es Wahnsinn, was da geht.

Speaker 2:

Auch in mir erwacht da der spieltrieb, aber den muss ich halt ein bisschen kanalisieren und sagen, ich bring den jetzt in Bahnen, die weder mich noch mein Unternehmen noch andere irgendwie gefährden. Und das Schöne ist ja, es geht also vielleicht nicht. Wie gesagt, die tache mit der transparent, da werden wir noch ein bisschen erwirkt, noch ein bisschen wasser den Bach runter fließen. Wir müssen mal so richtig gucken, wie kriege ich denn so ein modell transparent. Aber auch das wird, bin ich überzeugt davon, eines tages zumindest so gelingen, dass du dein nutzer, der hinterher das zeug verwendet, sagen kannst du pass auf, okay, das und das ist das, was da, das ist die magic quasi. Du brauchst keine amts haben, dass da jetzt irgendwas irgendwie den äther verschwindet ja, auch noch mal.

Speaker 3:

Vielleicht noch mal so ein seiten thema. Was ich gerne noch aufmachen wollen würde, ist nehmen wir zum beispiel das thema wahlmanipulationen. Ja, also, wir haben ja gelernt. Nehmen wir mal das trump beispiel, wie er auch offen damit ist. Jetzt mich erstaunt, dass auch da keine große widerspruchswelle oder empörung stattgefunden werden, das gesagt wurde. Wir haben im wahlkampf tatsächlich auf in intelligente technologien gesetzt, um einem wähler, der trump ablehnt, dort zu begegnen, wo es ihm am meisten weh tut, um wahlversprechen zu machen, dass der seine meinung ändert oder das häckchen setzt, weil kein anderer diesen einen punkt, der ihm so wichtig ist, benennt. Ja also, und das ganz offen kommuniziert wird. Also mich erstaunt, dass und je besser, damit habe ich ja maximalen einfluss auf eine gesellschaft, ja, je besser ich diese technologien und tools orchestrieren kann. Ja, und beherrsche oder sie überhaupt einsetzen. Ja, ist erstaunlich. Habe letztens eine grafik gesehen, das war ganz interessant. Alle parteien in deutschland, inklusive afd, wie engagiert sind die im bereich digitale kommunikation? ja, mit weitem abstand die afd vorne.

Speaker 2:

Also, die bedienen halt einfach die sozialen nizwecke ja, und wenn du dann halt das, was k i jetzt ermöglicht, in diese richtung ist immer schon ein bisschen bei diesen manipulativen techniken, was dann vielleicht irgendwo verboten ist, dann auch der k i verordnung. Aber du brauchst ja also das, was du vorhin gesagt hast die leute, die irgendwas anstellen wollen, die halten sicher an keine regeln. Und wie schnell ist, wenn du so ein latsch lengwitz modell online irgendwie open source anbietest, wie schnell ist da ein filter, den ich mal eingebaut habe, wieder ausgebaut? das wird, es wird total spannend. Und gerade an der sache, die ja auch so in richtung bisschen deep fake geht, meinungsmanipulation durch dinge, die vielleicht gar nicht so sinnwiese erscheinen auf den ersten blick.

Speaker 2:

Also da kommt zu meinem zwei herzen der des technikfreunds, des juristen, noch das, das vaters dazu, wo ich mich frage ok, wie schaut die welt vielleicht mal aus, wo meine kinder dann aufwachsen oder in der sie dann mal leben? weil ja, und das ist, das ist für mich bei, bei aller liebe zur k i, ich glaube, was wir nie verleeren dürfen, ist, selber kritisch zu denken und da sind wir spitzenreiter.

Speaker 3:

Auch da wieder eine statistik die skeptiker in deutschland sind bei, glaube ich, 40, 45 prozent, ich glaube, die gegner bei 19 prozent, und bei den skeptikern sind, glaube ich, 47 prozent, von denen wiederum über 50 oder 55 Jahre. Also wir haben, wir als deutsche so eine grundskepsis, deswegen sind wir nicht so wahnsinnig schnell unterwegs, die uns vielleicht aber auch zum vorteil wird. Ja, das muss ja nicht negativ sein. Wir sind vielleicht jetzt nicht die wahnsinnig schnellsten, aber wenn ich so an unsere kinder denke, dann sind wir, die die wege jetzt ebnen und die die digitalen infrastrukturen sicher machen, weil unsere kinder werden mit k i system so normal umgehen, wie wir unser handy in die tasche stecken.

Speaker 3:

Ja, du hast vorhin gesagt, es ist immer vertrauen, ist voll wichtig, dass wir dieses, dieses fast building hinkriegen, weil wir oder unsere kinder mit den mit den k i s oder mit den eis assistenten dann einfach auch ganz normal umgehen und sagen okay, wenn der das mir so sagt, dann wird es schon zu sein, einfach nicht mehr hinterfragt werden, dann irgendwann. Das ist so, das ist so noch sehr cool. Gibt es ein buch, was du empfehlen kannst? kann man irgendwas zu dem thema lesen? oder also zum thema e act?

Speaker 2:

gibt es bisher eigentlich nur nur aufsätze, weil das thema ist so neu, und es ist ja noch. Es ist so, dass die fassung, die dann veröffentlicht wird, die ist auch von der nummerierung her noch ganz anders, die wird dann noch mal glatt gezogen, ist, wird noch alles hübsch gemacht. Also da gibt es jetzt noch also keine publik, kein, kein buch. Dass ich jetzt kennen würde, muss ich dazu sagen, vielleicht war einer so schnell, und ich habe es nur nicht mitgekriegt oder zum thema etik oder so.

Speaker 2:

Also habe ich jetzt ehrlich gesagt, habe ich kein, habe ich kein muss entschreiben, das erklärst du meiner frau keins, dass ich jetzt ehrlich gesagt gelesen hätte, was ich jedem empfehlen kann, sich auf jeden fall mit der kf i verordnung zu beschäftigen, auch jetzt schon, auch was datenschutz und kian geht. Und da muss ich auch mal, auch wenn es die kontrollierende seite ist, da muss ich die bayerische aufsicht mal oben datenschutzaufsicht. Die hat ganz gute zusammenfassungen, verständlich auch für startups und klein unternehmen rausgebracht, und die findest, findet man auf den ihrer webseite. Die stellen schimpft sich landesamt für datenschutzaufsicht, und da sind checklisten drauf, da sind flier drauf, die das thema aufgreifen.

Speaker 2:

Also die waren da jetzt sehr rürig, um zu sagen schaut her, leute, das müsst ihr machen, um das beherrscht zu machen. Und auch die und deswegen lob ich das an der stelle auch mal gehen nicht mit den gehen, nicht mit dem ansatz ran, bleibt uns bloß weg mit dem teufelszeug, sondern die gehen auch damit ran und sagen wir machen die, lasst, lass uns die riesigen beherrschbar machen und dann das wirklich gute daraus ziehen und irgendwie in eine schöne neue, bunte welt aufbrechen sehr cool.

Speaker 3:

Wie hältst du dich produktiv? das ist mir immer eine ganz spannende frage. Gibt es irgendwelche tools, die du verwendest, um deinen arbeitsalltag zu hacken? einfach schneller zu sein, effizienter zu sein, mehr zahlt für die kinder zu haben?

Speaker 2:

also muss man sagen, gibt es mittlerweile für, gerade für also habe jetzt keine große anwaltskanzlei, weil die besteht aus meiner person gibt es mittlerweile ganz coole dinge. Im bereich legal tech geht auch so ein bisschen in richtung k i, die anwalts tools, die es am mark gibt, die werden immer besser in sachen selbstanlage, oder es gibt mittlerweile auch auch tatsächlich datenschutz konforme chatbots, die jetzt sicherlich nicht die qualität eines eines jet gpt es vielleicht erreichen, aber die dir beispielsweise bei der neuanlage von, von akten, bei der mandatsaufnahme und sowas wirklich gute dienste leisten. Was auch cool ist und ich nie wieder missen möchte, sind, sind kein typisches k i tool, aber sind tools, mit denen du online verträge unterschreiben kannst, etc. Also du bekommst es heute. Bis auf wenige ausnahmen, die jetzt irgendwie noch im in der anwaltsordnung oder im rechtsberatungsgesetz irgendwie verankert sind, bis auf ganz wenige dinge kommst du heute als anwalt tatsächlich papier los durch die welt und du kannst dich auch online mit mandanten irgendwie austauschen. Das ist schon ganz cool.

Speaker 2:

Also, wenn ich so nach meinem studium vergleichen, also ich fertig war, war das noch ne. Also es war eine komplett andere welt eigentlich fast aber wie sicher ist dein job?

Speaker 2:

also sagen ich weiß ich nicht, ob das schon, ob ich es tatsächlich schon merke. Also war ja vorher mit google auch so. Na also, ich glaube, bei rechtsanwältern und ärzten war das gleich. Ich habe das symptomal gegoogelt, ich habe mein rechtsfall mal gegoogelt. Also bei den gemischten ergebnissen, die heute noch rauskommen, wenn du fiktive fälle da eingibst, glaube ich, dass wir in naher zukunft noch unseren job erhalten werden, und ich glaube auch nicht, dass wir gedanklich schon soweit sind, dass du die k i recht sprechen lassen willst ne, weil das wäre genau das gleiche.

Speaker 3:

Wie an der waffe muss am ende ein menschenentscheidung treffen. Also das glaube ich schon. Ich glaube, nehmen wir mal die ganzen recherchen für präsidentsfälle oder solche sachen, also dieses ganze doing, um zu einem ergebnis zu kommen. Das ist eine strategie wird.

Speaker 2:

Es wird immer besser, es wird immer besser. Du musst es halt dir aktuell tatsächlich auch auf, auf auf grund, dinge wie anwaltsgeheimnis etc. Du musst es dir halt einfach angucken.

Speaker 2:

Ich kann jetzt nicht altirecht beraten und dann irgendwas nehmen, wo meine Daten offen wie ein scheunentor irgendwo liegen aber es gibt am markt tatsächlich mittlerweile wirklich wirklich ganz vernünftige dinge, und was ich schon glaube weil du mich nach der sicherheit meines jobs gefragt hast ich glaube, dass juristen, die sich mit k i beschäftigen, euren deutlichen wettbewerbsvorteil haben werden gegenüber den juristen, die sich nicht mit k i beschäftigen.

Speaker 3:

Ja, auf jeden fall, weil euch brauchen wir jetzt in zukunft, also zumindest in unserer branche ist.

Speaker 2:

Das ist ja das, das ist ja das schöne an it recht und datenschutz, das geht ja erstmal nicht weg. Das ist fast noch besser als erbrecht. Erbrecht gestorben wird immer.

Speaker 3:

Aber die technik geht auch immer weiter. Ja, das geht auch nicht mehr weg. Das stimmt, es hat mir sehr viel Spaß gemacht man sieht eine zeit, die ist verflogen.

Speaker 3:

Wir werden uns dem ein oder anderen thema noch mal nähern und vielleicht sehr, sehr gern aufruf an die hörerschaft hier, an euch da draußen wenn euch ein thema wichtig ist, schreibt uns auf sämtlichen kanälen sind wir erreichbar. Was euch interessiert, zu welchem thema wir den nikolai einfach nochmal einladen sollen. Und dann, ach so, vielleicht noch den hinweis wir konnten nicht als dozent gewinnen für die für den after work campus ja, da freue ich mich auch schon sehr darauf, gründerzentrum ausrichten.

Speaker 3:

Ich weiß nicht, glaube, die podcast folge kommt danach raus, oder so mal gucken wir, was teilen können. Ja, wenn nicht unbedingt auf unserer plattform mit dem nikolai kontakt aufnehmen unter coventureai, da findet man dich aber auch bei linken und überall sonst den auch im zweifel in den schornhuts dieser podcast folge. Die nikolai. Letzte frage an dich und damit das schlusswort für dich und für diesen podcast stell dir vor, wir haben ein plakat, und du darfst irgendetwas darauf schreiben, und dieses plakat kann jeder auf der welt sehen. So riesig ist das. Was würdest du drauf schreiben?

Speaker 2:

ich glaube, ich würde drauf schraben. Habt keine angst, das passt wunderbar zu ki, aber auch zu allen anderen dängen. Irgendwie haben wir bis jetzt immer alles hingekriegt. Ich bin der festen überzeugung, wir kriegen es auch weiterhin irgendwie gebacken, und ich glaube, mit dieser positive einstellung solltest du an dinge rangehen. Und angst ist nie ein guter berater. Nur weil ich mich vor irgendwas fürchte, ist sein zu lassen, weiß ich nicht. Gibt es viele gute andere gründesachen nicht zu tun? aber angst ist nie ein guter berater das lassen wir genauso stehen.

Speaker 3:

Danke, nikolai, für deine Zeit, herzlichen Dank.

KI Und Datenschutzrecht in Deutschland
Regulierung Von Hochrisiko-Ki-Technologien
Regulierung Und Risikomanagement Bei KI
Risiken Und Chancen Der Künstlichen Intelligenz
Positive Einstellung Und Kein Angst