Die Nutzung von Chatbots wie ChatGPT kann praktisch und spannend sein – doch sie birgt auch Risiken. Besonders beim Umgang mit sensiblen Daten ist Vorsicht geboten. Hier sind sechs Dinge, die ihr der KI besser nicht anvertraut:
1. Name, Adresse und Telefonnummer
Sensible Kontaktdaten wie Name, Wohnadresse oder Telefonnummer solltet ihr niemals in Chatbots eingeben. Auch wenn Entwickler:innen Datenschutz versprechen, besteht immer das Risiko eines Datenlecks – etwa durch Cyberangriffe. Solche Informationen können von Dritten für Phishing oder Identitätsdiebstahl missbraucht werden. Ebenso gilt: Reicht keine Fotos von Ausweisdokumenten wie Reisepass oder Führerschein ein – sie könnten dauerhaft gespeichert werden.
2. Passwörter und Zugangsdaten
Gebt niemals Passwörter, Logins oder Kontonummern an ChatGPT weiter. Auch wenn die KI mit anderen Diensten verknüpft ist, besteht die Gefahr, dass bei Sicherheitslücken eure Daten in falsche Hände geraten – etwa im Darknet. Bereits in der Vergangenheit kam es zu Vorfällen, bei denen Login-Daten versehentlich preisgegeben wurden.
3. Informationen zu eurer finanziellen Lage
Auch finanzielle Details gehören nicht in Chatbots. Kontoauszüge, Rechnungen oder Schreiben von Banken enthalten vertrauliche Informationen, die ausschließlich euch betreffen. ChatGPT hat nicht die gleichen Sicherheitsstandards wie Banken oder Krypto-Anbieter. Daher: keine Dokumente hochladen, keine Finanzdaten eingeben.
4. Medizinische Informationen
So verlockend es auch sein mag, ChatGPT bei gesundheitlichen Fragen um Rat zu fragen – eure Krankengeschichte gehört nicht in den Chat. Diese Informationen sind äußerst sensibel und sollten nur mit medizinischem Fachpersonal geteilt werden. Wenn ihr dennoch Fragen stellen wollt, anonymisiert die Angaben so gut wie möglich. Aber: Je allgemeiner die Frage, desto ungenauer die Antwort.
5. Vertrauliche Unternehmensdaten
Im beruflichen Umfeld setzen viele auf KI-Tools – doch hier ist besondere Vorsicht geboten. Vertrauliche Daten wie Meeting-Protokolle, Finanzinformationen oder Kundendaten haben in ChatGPT nichts verloren. Unternehmen sollten klare Richtlinien für den Umgang mit KI aufstellen und ihre Mitarbeiter:innen entsprechend schulen.
⇢ Daten-Abgriff bei WhatsApp: So könnt ihr das verhindern!
6. Anfragen zu illegalen Handlungen
Fragen zu verbotenen Aktivitäten – selbst im Scherz – können ernsthafte Folgen haben. Bestimmte Inhalte können gespeichert oder sogar an Behörden weitergeleitet werden. Wer etwa fragt, „wo man am besten eine Leiche versteckt“, riskiert unter Umständen, dass Ermittlungsbehörden aktiv werden.
Folge uns auf Social Media!