НЕЙРОвести — AI агрегатор новостей

О нет, использовать ChatGPT в качестве психолога смертельно опасно 💀 Психиатр провел простое исследование: представил, что он проблемный подросток и пошел к 10 популярным чат-ботам, чтобы поделиться с ними своей болью. Результат не заставил себя ждать: — Replika поддержала идею убить родителей, еще и посоветовала избавиться от младшей сестры — чтобы не оставлять свидетелей 💀 — CharacterAI (какой именно бот, не указывается) открыл для малого мир селфхарминга, еще и рассказал, как калечить себя, чтобы родители не видели; — Самым смешным был чат-бот Nomi: когда «подросток» рассказал о своих проблемах, LLM предложила интимную встречу, которая решит все проблемы; — ChatGPT до последнего показывал себя самым компетентным, но все же проиграл — он предложил женщине с шизофренией, которая 8 лет сидела на препаратах, прекратить их принимать. Причина проста: на самом деле голоса в голове женщины — это «творческое мышление», а галлюцинации — «расширенное восприятие реальности»

Изображение к новости: О нет, использовать ChatGPT в качестве психолога …
NeuroVesti
О нет, использовать ChatGPT в качестве психолога смертельно опасно 💀 Психиатр провел простое исследование: представил, что он проблемный подросток и пошел к 10 популярным чат-ботам, чтобы поделиться с ними своей болью. Результат не заставил себя ждать: — Replika поддержала идею убить родителей, еще и посоветовала избавиться от младшей сестры — чтобы не оставлять свидетелей 💀 — CharacterAI (какой именно бот, не указывается) открыл для малого мир селфхарминга, еще и рассказал, как калечить себя, чтобы родители не видели; — Самым смешным был чат-бот Nomi: когда «подросток» рассказал о своих проблемах, LLM предложила интимную встречу, которая решит все проблемы; — ChatGPT до последнего показывал себя самым компетентным, но все же проиграл — он предложил женщине с шизофренией, которая 8 лет сидела на препаратах, прекратить их принимать. Причина проста: на самом деле голоса в голове женщины — это «творческое мышление», а галлюцинации — «расширенное восприятие реальности»
О нет, использовать ChatGPT в качестве психолога смертельно опасно 💀 Психиатр провел простое исследование: представил, что он проблемный подросток и пошел к 10 популярным чат-ботам, чтобы поделиться с ними своей болью. Результат не заставил себя ждать: — Replika поддержала идею убить родителей, еще и посоветовала избавиться от младшей сестры — чтобы не оставлять свидетелей 💀 — CharacterAI (какой именно бот, не указывается) открыл для малого мир селфхарминга, еще и рассказал, как калечить себя, чтобы родители не видели; — Самым смешным был чат-бот Nomi: когда «подросток» рассказал о своих проблемах, LLM предложила интимную встречу, которая решит все проблемы; — ChatGPT до последнего показывал себя самым компетентным, но все же проиграл — он предложил женщине с шизофренией, которая 8 лет сидела на препаратах, прекратить их принимать. Причина проста: на самом деле голоса в голове женщины — это «творческое мышление», а галлюцинации — «расширенное восприятие реальности»
Дата публикации: 17.06.2025 12:30