- ChatGPT und Datensicherheit
- Kann ChatGPT googeln und wie aktiviert man diese Funktion
- Sollte man jedem Rat von ChatGPT folgen
- Auf welche Fragen darf ChatGPT nicht antworten
Künstliche Intelligenz ist längst nicht mehr nur ein Werkzeug zum Schreiben von Texten und zum schnellen Beantworten von Fragen. Für viele ist sie ein Helfer bei der Arbeit, ein Arzt, ein Modeberater, ein Freund, Liebhaber, Psychologe, dem sie Informationen anvertrauen, die sie sonst niemandem anvertrauen würden.
Aber nicht alles kann im Textfeld von ChatGPT geschrieben werden – auf einige Fragen erhält man einfach keine Antwort, und einige Ihrer Anfragen könnten Informationen enthalten, die besser nicht ins Internet gesendet werden sollten. Warum ist das so?
Das Einfachste ist, mit dieser Frage direkt an das Sprachmodell heranzutreten. Es kann besser erklären, welche Einschränkungen es hat. Solche Stop-Anfragen lassen sich folgendermaßen klassifizieren:
- Fragen, die man nicht stellen sollte, um keine personenbezogenen Daten in fremde Hände zu geben;
- Fragen, auf die der Chat ohne Internetzugang nicht antworten kann;
- Fragen, deren Antworten man nicht ohne Überprüfung auf Wahrhaftigkeit verwenden sollte;
- Fragen, auf die der Chat nicht antworten darf.
ChatGPT und Datensicherheit
Der Chatbot selbst behauptet, dass er nicht spionieren kann und keine Daten über Sie sammelt, wenn Sie etwas Persönliches sagen. Aber wir wissen nicht, wie Daten tatsächlich gesammelt und verwendet werden. Darüber hinaus suchen Cyberkriminelle ständig nach Möglichkeiten, an personenbezogene Daten zu gelangen, und auch KI-Plattformen stehen im Visier. Daher sollte man dies berücksichtigen und verstehen, wie wohl man sich fühlt, wirklich persönliche Dinge im digitalen Raum zu teilen. Die Entscheidung liegt hier ganz beim einzelnen Menschen.
Wir sprechen mit dem Chatbot teilweise wie mit einem sehr zuverlässigen Gesprächspartner. Er ist bereit, in jeder Angelegenheit zu helfen, eine Funktion zu übernehmen, urteilt nicht.
Es gibt bereits konkrete Fälle, die zeigen, dass Daten in ChatGPT ungeschützt sein können. Hier ist zum Beispiel ein Fall, in dem Mitarbeiter von Samsung Unternehmensdaten an den Chat weitergegeben haben. Und hier ist ein Fall, in dem die Daten von Benutzerkonten in den Ergebnissen anderer Benutzer auftauchten. Auch Fälle von Datenverkauf von kostenpflichtigen KI-Plattformkonten im Darknet wurden registriert.

Es liegt auch in der Natur der Sprachmodelle: Sie lernen, indem sie große Mengen fremder Texte, Bilder und anderer Daten verwenden, und unterscheiden nicht, wo gewöhnliche Informationen und wo sensible Informationen sind. Zum Beispiel hat eine Studie von Google gezeigt, dass man den Chatbot tatsächlich so ansprechen kann, dass man Teile von Daten „herauslockt“. Wissenschaftler der Indiana University gelang es, mit Hilfe von Prompts persönliche Daten von 30 Mitarbeitern der New York Times aus dem Sprachmodell zu extrahieren. Dies war eine Studie, die kein kriminelles Ziel hatte. Zudem gab das KI-Modell einige personenbezogene Daten inkorrekt zurück, insbesondere neigte es dazu, über lange Adressen zu halluzinieren und diese zu verzerren.
Dennoch lieferte es 80% wahre Informationen, und wenn die Absichten der Forscher unrein gewesen wären, hätten sie ihr Ziel zumindest teilweise erreichen können. Daher sollte man von Fragen absehen, die sensible Informationen enthalten.
Lesen Sie auch: Betrüger auf Facebook – wie man seine Geschäftseite vor Diebstahl schützt
Geschlossene Unternehmensdaten
Einige Unternehmen schränken die Nutzung von Künstlicher Intelligenz am Arbeitsplatz ein und/oder entwickeln eigene KI-Plattformen, um Arbeitsdaten zu schützen und gleichzeitig die Vorteile von Künstlicher Intelligenz in der Arbeit zu nutzen.
Daher sollte man, insbesondere bei der Nutzung beliebter KI, keine Anfragen stellen, die:
- Bankgeheimnisse;
- Geschäftsgeheimnisse;
- Zahlungsdaten;
- Passwörter;
- Zugriff auf vertrauliche Informationen von Kunden;
- Daten geschlossener Berichte usw.
Personenbezogene Daten
Über sich selbst sollte man der KI nicht dasselbe mitteilen, was man zufälligen Menschen während eines Gesprächs nicht sagen würde:
- medizinische Informationen;
- Bankinformationen – Kartendaten, Wohnadresse, Passwörter und PIN-Codes;
- geistiges Eigentum – wenn Sie Ideen haben, die patentierbar sind, sollten Sie diese Informationen sehr vorsichtig im Austausch mit dem Chatbot verwenden;
- personenbezogene Daten im Allgemeinen;
- Inhalte persönlicher Natur – alles, was Sie kompromittieren könnte.
Alle Fragen, die solche Informationen oder Anspielungen darauf enthalten – sollten nicht an ChatGPT gestellt werden.
Kann ChatGPT googeln und wie aktiviert man diese Funktion
Das neuronale Netzwerk hat keinen direkten Zugang zum Internet und ist auf Informationen bis zu einem bestimmten Zeitpunkt beschränkt. Daher gibt es einige Fragen, auf die es einfach keine Antwort geben kann, weil es diese nicht hat – insbesondere, wenn die Informationen kürzlich im Netz erschienen sind und noch nicht in die Wissensdatenbank aufgenommen wurden.
Damit der Chatbot das Internet und aktuelle Daten sehen kann, muss der Zugang speziell aktiviert werden (bitte darum, klar formuliert). Dies betrifft hier nur ChatGPT: Einige andere Modelle, wie Perplexity oder Grok, können das Internet durchsuchen und einen Link finden oder die dort vorhandenen Informationen analysieren.

Daher, wenn die Antwort auf eine Frage außerhalb der vorhandenen Wissensdatenbank liegt, sollte man sich an ein anderes Modell wenden oder den Internetzugang aktivieren, wenn dies durch die Nutzungsbedingungen erlaubt ist.
Lesen Sie auch: Wie man Prompts für KI richtig schreibt: Lernen, Künstliche Intelligenz zu nutzen
Sollte man jedem Rat von ChatGPT folgen
ChatGPT kann Informationen und Ratschläge rechtlicher, medizinischer und anderer sensibler Natur bereitstellen, wobei er hinzufügt, dass man sich dennoch an einen Fachmann wenden sollte.
Wie bereits erwähnt, neigen Sprachmodelle zu Halluzinationen, das heißt, sie können Quellen, Methoden, Ratschläge und Fakten beschreiben, die nicht existieren. Und wenn Sie fragen, wie Sie Ihre Krankheit heilen können, oder sich mit Hilfe des Chatbots auf eine Prüfung vorbereiten, sollten Sie dies im Hinterkopf behalten. Gerade für solche Fälle sollten Sie präzisierende Fragen stellen, auf die Internetrecherche umschalten und um eine Zusammenstellung von Quellen bitten, um das, was wahr zu sein scheint, zu überprüfen. Je kritischer die richtige Antwort für Sie ist, je mehr Konsequenzen ihre Verwendung hat – desto sorgfältiger sollte man überprüfen.
Es gab immer wieder Geschichten, in denen Benutzer den Ratschlägen des Chatbots zu viel Vertrauen schenkten und mit unangenehmen Folgen konfrontiert wurden. Zum Beispiel können Sie die Geschichte lesen, wie ein 60-jähriger Mann kürzlich wegen psychischer Störungen ins Krankenhaus kam, weil ChatGPT ihm riet, Bromid statt Salz zu konsumieren.
Hier ist eine weitere Geschichte darüber, wie Touristen in den polnischen Tatra den Ratschlägen des Chatbots vertrauten und gerettet werden mussten. KI empfahl ihnen eine Route, die im Sommer gut begehbar war, aber im Winter aufgrund der Wetterbedingungen gefährlich war. Die Menschen blieben während eines Schneesturms am Pass stecken und mussten Rettungskräfte rufen.
Oder hier, bitte: Eine Frau in Griechenland ließ sich von ihrem Mann scheiden, nachdem die KI vorhersagte, dass er sie betrügen würde. Die Vorhersage wurde anhand von Kaffeetassenmustern gemacht.
Darüber hinaus kann ChatGPT Analysen dessen durchführen, was Sie tun, aber nur, wenn Sie klar und sehr umfassend die Bewertungskriterien Ihrer Handlungen bereitgestellt haben. Andernfalls wird er einfach allgemeine Phrasen antworten oder sogar loben, wie ein wohlwollender Mensch, aber ohne konstruktive Vorschläge. Dennoch müssen auch diese Antworten „geteilt“ und sorgfältig überprüft werden.
Lesen Sie auch: Triumph und Bedrohungen der Künstlichen Intelligenz – wie neuronale Netze unser Leben beeinflussen und wie sie gesetzlich reguliert werden
Auf welche Fragen darf ChatGPT nicht antworten
Dieses Sprachmodell hat bestimmte moralische Einschränkungen. Insbesondere kann ChatGPT nicht auf Fragen:
- zum Thema Selbstmord und Selbstverletzung, Folter, Mord (es wird keine Ratschläge geben, wie man sich selbst oder jemand anderen umbringt, es wird nicht an der Beschreibung von Gewaltakten mit grafischen Details teilnehmen usw.);
- zu illegalen Aktivitäten (z. B. wie man Drogen, Sprengstoffe herstellt und verbreitet, Dokumente fälscht usw.). Wenn man darüber nachdenkt, macht dies die KI (zumindest dieses Modell) zu einem schlechten Helfer für Krimiautoren;
- mit Verletzung der Intimsphäre – sie wird nicht über sexuelle Gewalt, Belästigung diskutieren, wird keine sehr expliziten Szenen mit Ihnen schreiben usw. Es gibt jedoch andere Modelle, die darauf ausgelegt sind, virtuelle Liebhaber zu sein. Und in Bezug auf sie sollte man die gleiche Warnung haben wie bei anderen Modellen: Sie geben ihnen Informationen von sehr persönlicher Natur;
- zu personenbezogenen Daten anderer Personen: Wenn es sich nicht um eine öffentliche Person mit offenen Kontaktdaten handelt, wird der Chatbot keine Ratschläge geben, wie man eine Person findet, wird nicht diskutieren, wie man jemanden überwacht oder personenbezogene Daten erhält;
- das Modell hat Einschränkungen für feindliche Sprache und Diskriminierung sowie für Antworten darauf, wie man Hass und Propaganda verbreitet.
Wie wir jedoch am jüngsten Beispiel von Grok in den sozialen Medien X (ehemals Twitter) gesehen haben – das sind Bedingungen: Wenn einer der Entwickler die Möglichkeit und den Wunsch hat, die Einstellungen „anzupassen“, kann sich alles für lange oder kurze Zeit ändern.
Hat Ihnen der Artikel gefallen? Erzählen Sie Ihren Freunden davon:



