Austausch zum Thema KI

Hallo zusammen

es ist ja derzeit in aller Munde - das Thema KI bzw. ChatGPT und Co.

Daher denke ich es macht Sinn sich mal hierzu auszutauschen.

Was sind eure Erfahrungen?
Hattet ihr das Thema schon mal auf dem Tisch?
Wie schätzt ihr es ein?
Etc.

Ich persönlich halte es kurz gesagt für problematisch - auch wenn die Vorgaben der DSK aus 2019 beachtet werden.

2 „Gefällt mir“

Pessimist! (Ich auch.)

Es schlägt ja auch außerhalb des Datenschutzrechts Wellen, z. B. beim Urheberrecht. Und da sind wir am wesentlichen Punkt: Zum Trainieren und beim Einsatz werden die Systeme mit Daten gefüttert. Auch mit pbDaten. Die fließen evtl. in die Ergebnisse ein. Irgendwas davon kann sich auf Rechte und… der Betroffenen auswirken.

Zunächst kommt es mir auf den Input an. Da geht es um Nutzerdaten; wer, evtl. Konto beim Dienst, was /welche Themen, wann bzw. wie häufig… Dann um Inhaltsdaten, also den Chatinhalt, die Aufgabenstellung und dabei anfallende Angaben. Es wird Leute geben, die das Maschinchen mit kompletten Dokumenten, Personenabbildungen, Kontaktdaten usw. füttern, im weiteren Verlauf daran anknüpfen und komplette Vorgänge darüber abwickeln lassen.

Das sind ganz normale Datenschutzaspekte: Darf ich das mit diesen Daten tun? Unter Beachtung der Grundsätze wie Rechtmäßigkeit, Transparenz, Zweckbindung… und Einzelvorschriften wie besondere Kategorien, automatisierte Entscheidungsfindung, Drittlandabsicherung, Forschung…

Ist mir die Verarbeitung auch zu diesem Zweck erlaubt, der mehr oder weniger kompatibel mit dem ursprünglichen sein kann? Die Auslagerung an einen Dienstleister bzw. Übermittlung der Daten an den Dritten? Welche eigenen Zwecke verfolgt er (Training, Profiling…)? Ist die Drittlandabsicherung tauglich?

Onkel Dagobert hatte Elektronengehirne, aus denen hinten ein beschrifteter Streifen herauskam. Was wäre das in diesem Fall? Aufgefundene bzw. neu generierte Daten, die vielleicht den Personen aus dem Input zuordenbar sind, oder anderen. Auf Basis der erkenntnisse getroffene Entscheidungen.

Im unproblematischsten Fall geht es um nicht personenbeziehbare, evtl. synthetische Daten. Im schlimmsten Fall um sensible Daten, von denen jetzt auch der KI-Dienst weiß; Daten, die vom Verantwortlichen für undurchsichtige Zwecke ohne Kenntnis der Betroffenen verarbeitet werden; dass man auf die Ergebnisse vertraut und auf ihrer Basis Entscheidungen trifft, Leistungen erbringt, die signifikante Folgen haben.

Dieser Verarbeitungsvorgang müsste sich in den Pflichtinformationen wiederfinden. Was schreibt man da? Wenn man selbst nicht weiß, was alles passiert, bzw. wie das Ergebnis zustande kommt. Wie so oft auf die Datenschutzinfo der Plattform verweisen? Geht nicht, weil es darauf ankommt, was man darüber laufen lässt, und die eigenen Zwecke.

Praktisch würde ich empfehlen, sich um die Anonymisierung des Inputs zu kümmern. Auch die Rolle der Nutzer zu bedenken und sie ggf. durch Proxies o. ä. von der Profilbildung abzuschirmen. Und die Ergebnisse kritisch zu hinterfragen.

D., eher skeptisch. Dem im echten Leben die Idee über den Weg lief, irgendwas mit ChatGPT machen zu müssen. Der daraufhin konkrete Zwecke usw. verlangt hat. Seitdem Stille. Spart ja auch Strom.

1 „Gefällt mir“

Tja…
https://www.heise.de/news/Daten-von-ChatGPT-zum-Training-von-Bard-genutzt-Google-dementiert-8238453.html

1 „Gefällt mir“

Danke schonmal… das sehe ich auch so.

Problematisch sehe ich auch, dass OpenAI sich als AV sieht - in meinen Augen leigt aber wenn ein JC vor (sie nutzen die Daten ja zu eigen Zwecken wie dem Training der KI).

Mit dem Kniff umgehen sie auch eine eigene Rechtsgrundlage haben zu müssen…
Aber immerhin haben sie einen EU-Vertreter (na klar in Irland - wo auch sonst :slight_smile: )

Auch passend zu diesem Thema:

Stern - ChatGPT: Erstes EU-Land verbietet KI mit sofortiger Wirkung

2 „Gefällt mir“

Die Zulässigkeit scheint nicht durchexerziert gewesen zu sein.

https://www.spiegel.de/netzwelt/netzpolitik/chatgpt-droht-auch-in-deutschland-datenschutzaerger-a-36d48232-0f0b-4d94-a953-c55c2603c15f#ref=rss?sara_ref=re-so-app-sh

D., der sich fragt, wer die im Beitrag genannte “die deutsche Datenschutzbehörde” ist. Ach so, Bund.

1 „Gefällt mir“

Danke für die Info zu Deutschland…
Aber selbst in den USA gibt es Forderungen von Verbraucherschützern die KI zu verbieten bzw. zu pausieren:

und jetzt nutze ich mal Domasla’s Version der Beendingung von Postings (hoffe das ist OK)

Joe, der glaubt genug Argumente zu haben um Verantwortliche von Risiken zu überzeugen - aber weiß das DSBs zum Glück keine Verantwortliche sind :slight_smile:

Vielleicht habe ich das ganze noch nicht ganz verstanden - aber ich frage mich, wo hier überhaupt der Datenschutz-Bezug rein kommt. Der Anbieter der “KI” kann doch nur die Daten zum “Trainieren” nehmen, die er hat oder irgendwo öffentlich findet. Auf die Daten, für die ich (im Unternehmen oder Privat) verantwortlich bin, hat er doch keinen Zugriff. Warum dann AVV oder JCA? Oder muss man denen die eigenen Daten abliefern, wenn man das nutzen will?

Ich gehe davon aus, dass der Dienst neben selbst abgegrasten /gesuchten Daten auch die Daten zum Trainieren und Anreichern seines Wissens nimmt, die Nutzer eingeben. Und Daten aus den daraus generierten Antworten.

D. h. “verfügbare” oder vom Betreiber zur Verfügung gestellte Datenbestände sind vielleicht unzulässig dorthin geraten; waren nicht für solche Zwecke gedacht /zulässig; die Verwendung für solche Zwecke ist den Betroffenen nichit bewusst, wie jede neuartige Nutzung nicht erwartbar.

Dann sind es auch die Nutzer, die “ihre” Daten dort einfüttern, was nicht in jedem Fall zulässig sein wird (Zwecke, Übermittlung an Dritte, in Drittländer). Es können Echtdaten Dritter darunter sein, besondere Kategorien, Geheimnisdaten, Sozialdaten, Daten von Kindern…

Die Ergebnisse zu verwenden, sie mit bestehenden Daten anderer Personen zusammenzuführen, Entscheidungen darauf zu stützen etc. kann ebenso Klimmzüge mit sich bringen (oder zu unterlassen sein).

D., der nicht überall pbDaten sieht, aber das Potenzial. Damit wäre dann wie üblich umzugehen. (Korrekt, oder es interessiert niemanden.)

Ich weiß zufällig das in der Schweiz eine Versicherung mit ChatGPT als Support Chatbot experimentiert.

https://www.helvetia.com/ch/web/de/privatkunden/kontakt/services/chatbot-clara/frag-clara.html

Zum Datenschutz gibt es da nur einen Klapper kurz vorm Seitenende - der nicht die DSGVO erfüllt aber CH ist nicht EU.

Und so einen Support Bot den ich fragen kann “hey ändere bitte mal meinen Bankdaten im Account” halte ich schon für kritisch…

Italien: https://gpdp.it/home/docweb/-/docweb-display/docweb/9870847#english
BRD: https://www.spiegel.de/netzwelt/netzpolitik/chatgpt-droht-auch-in-deutschland-datenschutzaerger-a-36d48232-0f0b-4d94-a953-c55c2603c15f

Gestern war auch ein interessanter Talk bei Lanz zum Thema KI (neben anderen Themen).

https://www.zdf.de/gesellschaft/markus-lanz/markus-lanz-vom-4-april-2023-100.html

Ich stimme zu das wir hier u.a. eine bessere Bildung brauchen uum Fakenews, Deepfakes etc zu erkennen … aber bis dahin sollte man die Bevölkerung schon schützen so wie Italien und hoffentlich auch Deutschland (aber hier sieht das nur der Herr Kelber so und verweist auf die Landes ASBs. Zudem möchte das Digitalministerium / Handelsministerium weiter offen sein für neue Technologien - beste Grüße an die FDP und Volker Wissing)

https://www.br.de/nachrichten/deutschland-welt/bundesdatenschuetzer-haelt-sperrung-von-chatgpt-fuer-moeglich,TaMz6kj

Spannend auch die Aussage des früheren LfDI BW in dem Artikel.

Meinetwegen darf innoviert werden, bis es (umweltverträglich) raucht. Nur müssten die Anbieter und die Nutzer ungefähr wissen, was sie damit tun, tun dürfen, tun wollen.

D., für den KI nix Besonderes ist. Bei allen halbwegs neuen Sachen kann viel schiefgehen. Wie bei diesem… Inter-Netz, zum Beispiel.

Das Kernproblem bei der sog. künstlichen Intelligenz ist, besser wäre eigentlich machine learning, dass niemand wirklich wissen kann, was und wie verarbeitet wird. Natürlich gibt es einen Input anhand dessen die Maschine “lernt”. Im Unterschied zur traditionellen Programmierung, ob objektorientiert oder prozedural bleibt sich gleich, bestimmt jedoch nicht mehr der Entwickler den weiteren Fortgang der Verarbeitung. Natürlich werden auch personenbezogene Daten verarbeitet. Aber das datenschutzrechtliche Transparenzgebot kann definitiv konstruktionsbedingt nicht eingehalten werden.

PS.: Andererseits sehe ich natürlich auch sehr segensreiche Anwendungsmöglichkeiten, beispielsweise im Bereich der medizinischen Forschung.

Auf meine Frage, ob es künstliche Intelligenz gibt, antwortete chatGPT:
Ja, es gibt künstliche Intelligenz (KI). Künstliche Intelligenz bezieht sich auf die Entwicklung von Algorithmen und Systemen, die in der Lage sind, menschenähnliche kognitive Fähigkeiten wie das Lernen, die Problemlösung und die Entscheidungsfindung zu demonstrieren. KI-Systeme werden durch eine Kombination von Technologien wie maschinelles Lernen, neuronale Netze und natürliche Sprachverarbeitung entwickelt und können in verschiedenen Anwendungen eingesetzt werden, wie z.B. Bild- und Spracherkennung, autonome Fahrzeuge, medizinische Diagnose, Robotik und Chatbots.

Es ist jedoch wichtig zu beachten, dass künstliche Intelligenz derzeit noch nicht in der Lage ist, menschliche Intelligenz vollständig zu ersetzen oder zu replizieren. KI-Systeme sind auf bestimmte Aufgaben und Anwendungen spezialisiert und haben immer noch Schwierigkeiten, komplexe menschliche Verhaltensweisen wie Kreativität, Empathie und Moral zu reproduzieren. Dennoch entwickelt sich die KI-Technologie rasant weiter und es ist wahrscheinlich, dass sie in der Zukunft eine immer wichtigere Rolle in verschiedenen Bereichen des Lebens spielen wird.

Noch ein PS.: Spaßeshalber habe ich mal die Frage eingegeben, “Wie programmiere ich in Java einen Login?”
Die Antwort kam schnell und korrekt.

Da der Einsatz von KI im Unternehmen meiner Meinung nach einer Regelung bedarf, habe ich mal angefangen eine Richtlinie zu entwerfen. Dieser VORSCHLAG und allererster Ansatz stelle ich kostenfrei zum Download bereit (PDF/docx / ohne Registrierung / ohne E-Mailangabe). Vielleicht hilft euch dieses Dokument bei Euren Überlegungen und Beratungen.

https://www.dtnschtz.de/ki-richtlinie-muster-chatgpt/

Moin,

ich habe natürlich nicht alle Beiträge gelesen. Ich weis aber auch eigener Erfahrung, das das Thema KI in den Medien hoffnungslos überschätzt wird. Wenn ich die Digitale Rückständigkeit der Deutschen und doch eher schleppende Weiterentwicklung der Welt sehe, kann ich sagen, das KI auch in den nächsten 10 Jahren nicht wirklich alle prophezeiten Anwendungen leisten wird.

Chat-GPT scheint etwas weiter zu sein, aber ist auch in seinem Anwendungsgebiet sehr beschränkt.
Ich programmiere hobbymäßig seit 20 Jahren. (Nicht gut und nicht schnell, aber ich weis worum es geht!)

Auf Empfehlung eines Kollegen, der extrem davon begeistert war, habe ich mir vor 2 Jahren eine Alexa bestellt. Nach einer Woche hatte ich sie “geknackt” seit dem steht sie nur rum.

Ich hatte darauf eine negative Rezension geschrieben und diese an einem Sonntag bei Amazonien online gestellt. Kurz danach rief mich ein Mitarbeiter von Amazonien an … (Es gab da 1.000sende von Bewertungen …)
Wie “knackt” man Alexa ?
Alexa kann vieles nicht. Zum Beispiel konnte sie nicht die eigene Hilfe vorlesen wenn man ein Problem mit Alexa selbst hatte. Dieses Versäumnis finde ich für einen Sprachassistenten schon sehr schwerwiegend.

Neben ein paar anderen Pfaden hat Alexa 2 Pfade in der Programmierung. Entweder sie findet die Antwort auf die Frage in ihrer Datenbank, oder sie antwortet “Das weis ich leider nicht” (dwiln)
Bei dwiln habe ich angesetzt. Bei den Folgenden Fragestellung sollte man immer im Hinterkopf behalten wie ein Mensch antworten würde. Ich bin mir zu 100% sicher, das die Mehrheit der Menschen nicht so wie antworten würde. Mancher Komiker vielleicht, aber die Mehrheit nicht.
(Sinngemäß wiedergegeben) F wie Fleischtester; A wie Alexa
F: “Alexa hast du Gefühle”
A: “Ich bin einen KI und KIs haben keine Gefühle”
F: “Wenn KIs keine Gefühle haben, warum bedauerst du es dann, wenn du etwas nicht weist”
A: " Das weis ich leider nicht"

Google ist das deutlich intelligenter. Auch stört an Alexa extrem, das sie sich nichts merkt. Man kann die gleichen dummen Fragen immer wieder stellen und bekommt die gleiche Antwort.


Der Begriff KI erweckt zu viele Erwartungen bei Menschen, die sich nicht mit dem Thema beschäftigen. Die Auswertung von Informationen durch KIs erfolgt sehr selektiv. Die KI macht nur was sie gelernt hat. (Man kann auch sagen, auf was sie programmiert worden ist!) Ein Mensch ist ein Multitalent, er kann viele 1000sende verschiedene Sachen. … Ich würde sogar soweit gehen, das der Mensch soweit davon entfernt ist ein menschenähnliches Gehirn digital nachzubauen wie von ewigem Leben.

Grüße

Woraus schließt du das Alexa es bedauert keine Gefühle zu haben? Es ist deine Interpretation der Antwort :smile:

Die 2.Antwort von Alexa (“leider”) resultiert aus deiner Antwort (“bedauern”) auf die 1.Anwort von Alexa (faktisch).

https://www.vice.com/de/article/wxnaqz/ki-ist-weder-kuenstlich-noch-intelligent

Moin,

Woraus schließt du das Alexa es bedauert keine Gefühle zu haben?

Du hast da eventuell etwas falsch verstanden. Es geht nicht darum, das Alexa es bedauert keine Gefühle zu haben, es geht darum, das sie Gefühle zum Ausdruck bringt, die sie nicht hat! (“Haben kann” nach eigener Aussage!)

Duden:

Der Duden sagt “bedauerlicherweise” ist ein Synonym zu “leider”. (Ich hoffe das reicht dir!)

Die 2.Antwort von Alexa (“leider”) resultiert aus deiner Antwort (“bedauern”) auf die 1.Anwort von Alexa (faktisch).

Hä ? … Alexa spielt einen Standarttext ab, weil die Entwickler diese Frage nicht vorhergesehen haben.
Da Alexa “Dumm wie Brot” ist merkt sie auch nicht, das sie ein Paradoxon von sich gibt … Sie ist zu Erklärungen ihrer Selbst nicht fähig! …

Grüße

Da muss sie aber sagen: “Ich bedaure, dass ich das nicht weiß.” :wink:

Jo, Intelligenz ist was anderes. Intelligenz kann nämlich aus Fehlern lernen.

Es gibt keine dummen Fragen, nur dumme Antworten. :wink: Allerdings sind Merkfähigkeit und Intelligenz zwei verschiedene Dinge:

“Der Begriff ‘Merkfähigkeit’ beschreibt die Fähigkeit, aufgenommene Informationen über einen längeren Zeitraum zu behalten und jederzeit wieder abrufbar zu machen.”

“Intelligenz (lateinisch: intellegere = verstehen, erkennen) beschreibt die Fähigkeit zu denken.”

Du kennst doch den Unterschied zwischen Student, Assistent und Professor? Der Student muss alles wissen, der Assistent muss wissen, wo alles steht, und der Professor muss immer wissen, wo sein Assistent ist. :wink:

Nach Ansicht vieler Leute schon viel zu weit:

https://de.wikipedia.org/wiki/ChatGPT#Aufruf_zu_einer_KI-Entwicklungspause