ПЕРВАЯ ИГРА ОТ ЗЕРКАЛА!
Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Адский понедельник. 65 лет назад случилась катастрофа, которую советские власти пытались стереть из истории Киева, — рассказываем
  2. Валютному рынку прогнозировали перемены. Возможно, они начались — в обменниках наблюдаются изменения курса доллара
  3. BELPOL: Российский завод сорвал сроки и выставил огромный счет беларусам за «союзный самолет»
  4. Белый пепел, «дети-медузы» и рождение монстра. История катастрофического ядерного испытания, которую пытались скрыть
  5. Доллар приближается к трем рублям: что будет с курсами во второй половине марта. Прогноз по валютам
  6. Один из операторов придумал, как обойти ограничения по безлимитному мобильному интернету. Клиенты, скорее всего, оценят находчивость
  7. БНФ предупреждал, но его не послушали — и сделали подарок Лукашенко. Что было не так с первой Конституцией Беларуси
  8. Помните убийство девушки в Минске, где мать с сыном расчленили труп, сварили и перекрутили на мясорубке? Вот что сейчас с преступником
  9. На торговом рынке маячит очередное банкротство. Скорее всего, вы знаете эту компанию
  10. «Так живет почти вся Беларусь». В Threads показали расчетный лист якобы с одного из предприятий — некоторых удивила зарплата
  11. «Поставили клеймо». Стало известно, за что в прошлом году судили пропагандистку Ольгу Бондареву


Соучредитель Microsoft Билл Гейтс прокомментировал открытое письмо ИТ-экспертов, призвавших прекратить обучение нейросетей из-за рисков для человечества. Он считает, что такой шаг не решит проблемы, а людям лучше сосредоточиться на том, как использовать разработки в области искусственного интеллекта (ИИ), пишет Reuters.

Билл Гейтс. Фото: Reuters

Как сообщает агентство, Билл Гейтс впервые публично прокомментировал открытое письмо главы SpaceX Илона Маска, соучредителя Apple Стива Возняка и еще более 1100 экспертов ИТ-отрасли.

Напомним, авторы обращения недавно призвали приостановить обучение нейросетей более мощных, чем GPT-4, так как это может представлять угрозу для всего человечества.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — говорится в письме.

Там также указывается, что лаборатории и независимые эксперты должны использовать паузу в шесть месяцев для совместной разработки и внедрения набора общих протоколов, которые должны гарантировать безопасность.

Билл Гейтс с этим не согласен — он заявил, что приостановка обучения нейросетей не решит проблемы, с которыми человечеству предстоит столкнуться в будущем. По его словам, людям стоит сосредоточиться на том, как лучше всего использовать разработки в области ИИ, к тому же паузу в развитии таких технологий будет сложно обеспечить на уровне всех стран мира.

— Я действительно не понимаю, кто, по их мнению, может остановиться, согласится ли на это каждая страна в мире и вообще зачем это нужно делать, — добавил Гейтс.

Миллиардер высказал мнение, что нейросети обладают огромными преимуществами, но эксперты должны определить «области, представляющие сложность» в их развитии.

Напомним, в конце января Microsoft объявила о многолетних и многомиллиардных инвестициях в лабораторию искусственного интеллекта (ИИ) OpenAI, которая среди прочего создала чат-бот ChatGPT. Microsoft не назвала конкретную сумму, но СМИ сообщали об объеме в 10 млрд долларов.

ChatGPT — это чат-бот, основанный на последней версии языковой модели GPT. Он был запущен в конце ноября 2022 года, а спустя всего неделю после запуска число его пользователей достигло 1 млн.

Такая популярность, по словам разработчиков, объясняется тем, что ChatGPT обучен «отвечать на последовательные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные и отклонять неуместные вопросы».

В Сети можно найти много примеров использования ChatGPT: от составления резюме или инвестиционного портфеля до написания приветственного сообщения в приложении для знакомств или речи в Конгрессе США, от стихов до помощи в написании программного кода.