Bei ChatGPT soll es künftig eine neue Sicherheitsfunktion geben: „Trusted Contact“ verbindet Erwachsene mit einer Vertrauensperson, sobald ein Chat mit der KI darauf hindeutet, dass jemand sich ernsthaft etwas antun könnte. Wer mindestens 18 Jahre alt ist, kann über diese Funktion eine Person bestimmen, der sie vertraut. Das kann ein Freund, ein Familienmitglied oder eine andere Bezugsperson sein. Damit „Trusted Contact“ greift, müssen Nutzer oder Nutzerin aktiv jemanden benennen, und die Vertrauensperson muss die Einladung annehmen. Erkennt das automatische System dann bei einem KI-Chat entsprechende Gefährdungssignale, wird zuerst der oder die Chattende darauf hingewiesen, dass ChatGPT die Vertrauensperson benachrichtigen könnte. Es wird ermutigt, sich doch selbst an diesen Menschen zu wenden. Ab dann übernehmen speziell geschulte Personen, heißt es von dem Unternehmen. Bei ernsthaften Sicherheitsbedenken informieren sie die Vertrauensperson per E-Mail, SMS oder In-App-Benachrichtigung. Diese Nachricht enthält aber keine Details, sondern ist nur allgemein und ermuntert die Vertrauensperson, sich einzuklinken. Das Unternehmen weist ausdrücklich darauf hin, dass das Feature keine professionelle Hilfe ersetzen kann oder soll.