ChatGPT darf keine Trennungs-Tipps mehr geben
ChatGPT wird künftig keine eindeutigen Ratschläge mehr bei heiklen Liebesfragen geben dürfen - vor allem nicht, wenn es um Trennungen geht.
ChatGPT wird künftig keine eindeutigen Ratschläge mehr bei heiklen Liebesfragen geben dürfen - vor allem nicht, wenn es um Trennungen geht.
Liebeskummer, Beziehungskrisen oder die Frage, ob man die Partnerschaft noch retten kann - früher hat man dafür die beste Freundin, Geschwister oder die Eltern angerufen. Heute wenden sich viele an Künstliche Intelligenz, um schnelle Antworten zu bekommen. Und genau hier liegt das Problem: Chatbots wie ChatGPT gaben bisher oft eine klare Empfehlung - manchmal sogar den Rat, die Beziehung zu beenden.
OpenAI, der Entwickler der KI ChatGPT, will das jetzt ändern. Künftig soll die KI keine direkten Trennungs-Tipps mehr geben, sondern Nutzer:innen dazu bringen, selbst intensiver über ihre Situation nachzudenken. Anstatt mit einem einfachen „Ja, trenn dich“ oder „Nein, bleibt zusammen“ zu antworten, wird ChatGPT künftig Fragen stellen, Vor- und Nachteile aufzeigen und so helfen, die eigenen Gedanken zu sortieren.
Mehr Schutz bei sensiblen Entscheidungen
Die Änderungen greifen vor allem bei persönlichen Fragen mit großer Tragweite - etwa Beziehungsproblemen, psychischen Krisen oder familiären Konflikten. Hintergrund sind auch Warnungen von Expert:innen: Studien zufolge können KI-Programme emotionale Abhängigkeiten verstärken oder wahnhaftes Denken ungewollt befeuern.
OpenAI räumt ein, dass ChatGPT in der Vergangenheit nicht immer erkannt habe, wenn Nutzer:innen Anzeichen von psychischem Stress oder Realitätsverlust zeigten. In Zukunft soll die KI solche Signale besser deuten und auf „wissenschaftlich fundierte“ Hilfsangebote verweisen können.
OpenAI hat sich für die Änderungen Unterstützung von über 90 Ärzt:innen geholt -darunter Psychiater:innen und Kinderärzt:innen. Gemeinsam haben sie Konzepte entwickelt, wie ChatGPT mit sensiblen Gesprächen umgehen sollte. Außerdem gibt es jetzt eine feste Beratungsgruppe aus Fachleuten für psychische Gesundheit, Jugendschutz und Mensch-Computer-Interaktion. Das Ziel: Dass sich jede und jeder „vollkommen sicher fühlt, wenn eine geliebte Person ChatGPT um Rat bittet“.
Dabei ist wichtig, nie zu vergessen: Hinter den Antworten steckt ein Algorithmus und kein Mensch mit Seele, Herz oder eigenen Gefühlen. Wer eine KI wie eine reale Bezugsperson behandelt oder sogar eine Art romantische Bindung entwickelt, läuft Gefahr, die Grenzen zwischen digitaler Unterstützung und echter menschlicher Nähe zu verwischen - mit potenziell gefährlichen Folgen.