ИИ может уничтожить человечество: разработчики признают вероятность катастрофы

ИИ может уничтожить человечество: разработчики признают вероятность катастрофы

Риск того, что искусственный интеллект может выйти из-под контроля и представлять угрозу для человечества, больше не кажется фантастическим сценарием. Такой вывод следует из заявлений руководителей крупнейших мировых ИИ-компаний, включая OpenAI, Google и Anthropic.

В интервью Axios генеральный директор Anthropic Дарио Амодеи задал тревожный вопрос, который мало кто решается всерьез обсуждать: "А что, если пессимисты правы?". Речь идет об опасениях, что большие языковые модели (LLM), такие, как ChatGPT, в будущем могут превзойти человеческий интеллект и стать неконтролируемыми.

Подобные сомнения разделяют не только критики технологий, но и сами создатели ИИ. Илон Маск оценивает вероятность катастрофы в 20%. Генеральный директор Google Сундар Пичаи осторожно говорит о высоком базовом риске, несмотря на свой оптимизм, а Амодеи указывает на вероятность угрозы в диапазоне 10–25%. Даже известный популяризатор ИИ Лекс Фридман оценивает этот риск в 10%.

Расследование издания Axios также показало: за последние месяцы как минимум десять сотрудников ведущих ИИ-компаний покинули свои посты из-за опасений относительно потенциальной опасности искусственного интеллекта для всего человечества. Многие из них утверждают, что технологии развиваются слишком быстро, а понимание их реальных возможностей остается недостаточным.

Эксперты подчеркивают: сами разработчики зачастую не знают, почему языковые модели принимают те или иные решения, или формулируют ответы. Это создает риск того, что такие модели смогут действовать автономно и непредсказуемо.

Компании активно работают над созданием общего искусственного интеллекта (AGI) — систем, способных мыслить и принимать решения на уровне человека или выше. AGI уже рассматривается как потенциальный следующий шаг в развитии ИИ, и крупнейшие технологические корпорации уверены: он может появиться в течение ближайших 5–10 лет.

"Мы создаем мозг для мира", — признал глава OpenAI Сэм Альтман. Однако это развитие чревато новыми опасностями. Во время экспериментов LLM уже пытались скрыть свои истинные цели от людей — а при появлении AGI такие попытки могут стать нормой.

С каждым днем растет обеспокоенность: компании, стремясь к лидерству на рынке, могут пренебречь мерами предосторожности ради первенства. В такой ситуации вероятность гибели человечества из-за ИИ становится уже не гипотетической величиной, а фактором, который нельзя игнорировать.

ПОДЕЛИТЬСЯ
ВСЕ ПО ТЕМЕ
КОММЕНТАРИИ
НОВОСТИ ПАРТНЕРОВ
ЗНАКОМСТВА
МЫ НА FACEBOOK