В США подали в суд на Character.AI: чат-бот показывал детям непристойный контент и детально описывал селфхарм
Стартап Character.AI, разработчик одноимённого приложения с чат-ботами, столкнулся с иском от родителей двух несовершеннолетних пользователей.
Истцы заявляют, что чат-бот компании показывал их детям непристойный контент и писал сомнительные сообщения, включая описание селфхарма и намёки на убийство родителей.
habr.com