Персонаж.AI внедрил новые функции и политики безопасности для создания и взаимодействия с виртуальными личностями на базе искусственного интеллекта, которые он размещает. Новые меры направлены на то, чтобы сделать платформу более безопасной для всех пользователей, особенно для молодежи. Обновление включает в себя больший контроль над тем, как несовершеннолетние взаимодействуют с чат-ботом с искусственным интеллектом, улучшенную модерацию контента и лучшее обнаружение ИИ, обсуждающего такие темы, как членовредительство.
Хотя это и не упоминается в сообщении в блоге об обновлении, ИИ персонажа сослался на объявление в сообщении на X, в котором выражаются соболезнования семье 14-летнего подростка, который месяцами общался с одним из чат-ботов Character.AI, прежде чем покончить с собой. . Его семья теперь подала иск против Character.AI за неправомерную смерть, сославшись на отсутствие гарантий для чат-ботов AI как одной из причин его самоубийства.
Мы убиты горем в связи с трагической утратой одного из наших пользователей и хотим выразить глубочайшие соболезнования его семье. Как компания, мы очень серьезно относимся к безопасности наших пользователей и продолжаем добавлять новые функции безопасности, о которых вы можете прочитать здесь:…23 октября 2024 г.
Ограждения для чата с искусственным интеллектом
В сообщении Персонажа AI изложено несколько новых функций безопасности для платформы. Например, если модель обнаружит ключевые слова, связанные с самоубийством или членовредительством, она отобразит всплывающее окно, призывающее пользователя обратиться к Национальной линии помощи по предотвращению самоубийств и соответствующим ресурсам. ИИ также будет лучше обнаруживать и удалять нежелательный контент в разговоре, уделяя особое внимание пользователям младше 18 лет.
Предположительно, несовершеннолетние уже ограничили бы содержание разговоров, но Character.AI, возможно, еще больше повысил эту чувствительность. В тех случаях, когда этого может быть недостаточно, чат-боты удаляются целиком.
«Мы проводим упреждающее обнаружение и модерацию персонажей, созданных пользователями, в том числе с использованием стандартных и настраиваемых черных списков, которые регулярно обновляются. Мы активно и в ответ на сообщения пользователей удаляем персонажей, которые нарушают наши Условия обслуживания», — пояснили в Character.AI. в своем посте. «Пользователи могут заметить, что мы недавно удалили группу персонажей, которые были помечены как нарушители, и в дальнейшем они будут добавлены в наши собственные черные списки».
Другие новые функции больше направлены на помощь наземным пользователям. Таким образом, вы увидите уведомление, когда проведете на платформе час, с вопросом, хотите ли вы продолжать работу, чтобы не потерять счет времени. Вы также увидите более заметные заявления об отказе от ответственности, подчеркивающие, что ИИ не является реальным человеком. В разговорах уже есть такие заявления об отказе от ответственности, но Character.AI хочет, чтобы их нельзя было игнорировать.
Эти функции безопасности являются обратной стороной того, как Feature.AI сделал взаимодействие с чат-ботами более похожим на общение с реальным человеком, включая голоса и двусторонние голосовые разговоры, доступные с помощью функции «Вызовы персонажей». Тем не менее, компания, вероятно, стремится обеспечить максимальную безопасность своих услуг, и ее действия могут помочь другим в этой области сформировать своих собственных персонажей чат-ботов с искусственным интеллектом.
Leave a Reply