Ученые заставили поверить искусственный интеллект в теории заговора

Поделиться:

Исследование канадских лингвистов из Университета Ватерлоо показало, что искусственный интеллект (ИИ) на основе больших языковых моделей, таких как GPT-3, может допускать ошибки, противоречить себе и распространять дезинформацию, включая конспирологические гипотезы. Об этом сообщает Газета.ru.

Специалисты изучали устойчивость чат-бота ChatGPT, выявив, что нейросеть подтверждает до 26% ложных утверждений в зависимости от категории, а изменения в формулировке вопросов существенно влияют на ее ответы. Эти проблемы вызывают тревогу, поскольку уязвимость ИИ перед дезинформацией и неспособность отличать правду от вымысла подрывают доверие к таким системам, особенно при широком распространении.

Войдите, чтобы оставить комментарий

Введите почту, получите PIN-код и готово!

Код отправлен на {{ authEmail }}

Введите пароль для {{ authEmail }}

{{ authError }}

Пожаловаться на новость

Оставить комментарий

Если материал нарушает права или содержит недопустимый контент:

Сообщение успешно отправлено!
{{ errorText }}

Читайте также