ПЕРВАЯ ИГРА ОТ ЗЕРКАЛА!
Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. «Не ел, не пил 20 лет, а потом еще заплати». Налоговики рассказали о нюансе по сбору на недвижимость — у некоторых это вызвало удивление
  2. «Они должны помнить, что я говорил». Экс-журналист пула Лукашенко — об увольнении и разговорах с силовиками
  3. Адский понедельник. 65 лет назад случилась катастрофа, которую советские власти пытались стереть из истории Киева, — рассказываем
  4. Белый пепел, «дети-медузы» и рождение монстра. История катастрофического ядерного испытания, которую пытались скрыть
  5. Помните убийство девушки в Минске, где мать с сыном расчленили труп, сварили и перекрутили на мясорубке? Вот что сейчас с преступником
  6. На польской границе пограничник зачеркнул беларуске печать, которую поставил, и «щелкнул» рядом вторую. Зачем он это сделал?
  7. BELPOL: Российский завод сорвал сроки и выставил огромный счет беларусам за «союзный самолет»
  8. «Поставили клеймо». Стало известно, за что в прошлом году судили пропагандистку Ольгу Бондареву
  9. Доллар приближается к трем рублям: что будет с курсами во второй половине марта. Прогноз по валютам
  10. «Так живет почти вся Беларусь». В Threads показали расчетный лист якобы с одного из предприятий — некоторых удивила зарплата
  11. На торговом рынке маячит очередное банкротство. Скорее всего, вы знаете эту компанию


Институт инженеров электротехники и электроники (IEEE) провел тест Тьюринга, чтобы оценить, насколько современные модели искусственного интеллекта могут имитировать человеческое общение, пишет LiveScience.

Изображение используется в качестве иллюстрации. Фото: pixabay.com
Изображение используется в качестве иллюстрации. Фото: pixabay.com

Сообщается, что в ходе эксперимента 500 участников вели диалог с четырьмя агентами: человеком и тремя различными ИИ-моделями: программой эпохи 1960-х ELIZA, GPT-3.5 и GPT-4. Люди должны были за пять минут определить, общаются они с человеком или ИИ.

Исследователи заявили, что GPT-4 успешно прошел тест Тьюринга. Участники ошибочно принимали GPT-4 за человека в 54% случаев. «Это достижение подчеркивает значительный прогресс в развитии ИИ, но также вызывает опасения относительно социальных и экономических последствий широкого использования таких технологий», — отметили ученые.

Система ELIZA была принята за человека в 22% случаев, GPT-3.5 в 50%, а человек в 67%.

Ученые подчеркивают, что тест Тьюринга имеет свои ограничения и критикуется за слишком упрощенный подход к оценке интеллекта. Исследователи добавили, что стилистические и эмоциональные факторы играют большую роль в прохождении теста, чем традиционные представления об интеллекте.

Тест Тьюринга, предложенный Аланом Тьюрингом в 1950 году, оценивает способность машины демонстрировать интеллект, неотличимый от человеческого.