На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Свежие комментарии

  • Rafael ishkinin
    Хрен не слаще редьки.В Вашингтоне уже ...
  • Rafael ishkinin
    О,её еще не отправили на нары?Тысячам мигрантов...
  • Rafael ishkinin
    Административный арест???Этих "охотников" надо было отдать на съедение этим же медведям! Небось оголодали после спячк...Камчатских медвед...

Поймать ИИ на обмане становится вполне возможным - исследование

Британские ученые научились точно опрелелять, когда чат-боты на основе искусственного интеллекта (ИИ) лгут.

По словам специалистов, на которых ссылается издание Nature, к современным чат-ботам часто можно применять термин конфабуляция — воспроизведение воспоминаний, в которых реальные факты сочетаются с абсолютно вымышленным событиями.

Ученые нашли способ поймать ИИ на лжи, используя новый метод анализа.

В материале говорится, что ChatGPT и подобные ему инструменты фактически не могут врать, однако они могут выдавать неточные данные — в случае, если не обладают всей полнотой информации. Также на многие вопросы можно ответить по-разному, из-за чего может произойти статистическая неопределенность. Такая ситуация возникает, когда чат-бот не уверен, как сформулировать правильный ответ, или не знает ответа в принципе.

Исследователи решили сосредоточиться на том, что они называют семантической энтропией. Специалисты задают ИИ один и тот же вопрос несколько раз, а затем определяют, сколько ответов семантически эквивалентны. Если большое число имеет одно и то же значение, то модель ИИ, скорее всего, не уверена в формулировке, но имеет правильный ответ. В противном случае чат-бот может врать.

фото: lenta.ru

Картина дня

наверх