1. /
  2. Актуальное
  3. /
  4. Разработчики ИИ понимают, что...

Разработчики ИИ понимают, что «агенты» ИИ не могут заменить людей – ИИ «нельзя сравнивать с людьми или даже с животными».

21 октября 2025 г. / Брайан Шилхэви, Редактор Health Impact News.

Андрей Карпати, один из основателей OpenAI (наряду с Сэмом Альтманом), на прошлых выходных произвел большой фурор в мире технологий искусственного интеллекта, заявив, что идея о том, что ИИ заменит людей «сразу за углом», не соответствует действительности, и что лидеры отрасли преувеличивают ее ради финансовой выгоды.

Он заявил, что код ИИ не может учиться и рассуждать как люди или даже животные.

Прав ли Андрей Карпати относительно переоцененного искусственного интеллекта?

по информации

Выдержки:

Андрей Карпати, один из основателей OpenAI, в пятницу резко осудил идею о том, что искусственный интеллект общего назначения уже не за горами. Он также поставил под сомнение различные предположения об ИИ, высказанные крупнейшими экспертами отрасли, такими как Дарио Амодеи из Anthropic и Сэм Альтман из OpenAI.

Уважаемый Карпати назвал обучение с подкреплением — пожалуй, самую важную область исследований на данный момент — «ужасной», сказал, что агенты кодирования на основе ИИ не так интересны, как думают многие, и что ИИ не может рассуждать ни о чем, чему он еще не обучен .

Его комментарии, взятые из подкаста-интервью с Дваркешем Пателем, нашли отклик у некоторых исследователей искусственного интеллекта, с которыми мы общались, в том числе тех, кто также работал в OpenAI и Anthropic. Они также перекликаются с комментариями исследователей, высказанными нами на Международной конференции по машинному обучению ранее в этом году.

Большая часть критики Карпати в адрес его собственной области, похоже, сводится к одному: как бы нам ни хотелось антропоморфизировать большие языковые модели, они несопоставимы с людьми или даже животными в том, как они обучаются .

Например, зебры встают и начинают ходить уже через несколько минут после рождения, что говорит о том, что они рождаются с определенным уровнем врожденного интеллекта, в то время как учащимся магистра права приходится проходить долгий путь проб и ошибок, чтобы освоить любой новый навык, отмечает Карпати.

Это приводит к множеству проблем, многие из которых связаны с идеей о том, что магистрам права сложно работать с предметами или информацией, выходящими за рамки данных, на которых они обучались. На языке искусственного интеллекта это означает, что модели не «обобщают».

Примером того, как обучение LLM отличается от обучения людей, является обучение с подкреплением — современная методика обучения моделей , которая поощряет модель за достижение определенных целей и наказывает ее за другое поведение.

Карпати отмечает, что RL чрезмерно упрощает процесс обучения: то, что модель в итоге приходит к правильному окончательному ответу, не означает, что каждый шаг, который она делала до этого момента, был правильным, и наоборот. (Карпати сравнил RL с «всасыванием руководства через соломинку».)

В отличие от этого, люди способны глубже анализировать свои мыслительные процессы, а не только конечный результат. Например, основатель, желающий создать успешную компанию, может проанализировать процесс её создания и подумать о том, что было сделано правильно или неправильно, чтобы применить эти идеи в своей следующей компании, независимо от того, была ли первая компания в конечном итоге успешной.

Версия этого на уровне искусственного интеллекта заключалась бы в том, чтобы модель получала обратную связь на каждом этапе своего мыслительного процесса — подход, который некоторые пробовали, но который может оказаться очень дорогим и утомительным.

Вполне закономерно, что в эти выходные, вскоре после выхода интервью с Карпати, компания OpenAI попала в сложную ситуацию из-за заявлений о том, что GPT-5 решила новые математические задачи, хотя на самом деле просто нашла ответы на них.

Возможно, мы находимся дальше от автоматизации исследований в области ИИ, чем думали!

Все это говорит о том, что полезно время от времени проявлять скептицизм и прислушиваться к экспертам, у которых нет стимула расхваливать прогресс в области искусственного интеллекта ради получения миллиардов долларов от венчурных капиталистов и других инвесторов . ( Полная статья — требуется подписка.)

«Агенты» ИИ НЕ заменяют людей

В другой статье, опубликованной сегодня, Аарон Холмс из The Information проанализировал шумиху вокруг «ИИ-агентов», возникшую в начале этого года (2025), и то, на каком этапе мы находимся сегодня с точки зрения данных обещаний. Он также сослался на комментарии соучредителя OpenAI Андрея Карпати.

Проверка агентов реальностью

Примерно в начале этого года руководители компаний-поставщиков искусственного интеллекта, таких как OpenAI и Salesforce, заявили, что 2025 год станет «годом агентов», создавая впечатление, что полностью автономный ИИ вскоре возьмет на себя работу людей.

С тех пор Salesforce, Microsoft, SAP и многие другие предложили около семи типов агентов для автоматизации задач «белых воротничков» в таких областях, как кодирование, управление персоналом, финансы и продажи.

Однако обещания по-настоящему автономных агентов до сих пор не выполнены, и руководители технологических компаний призывают компании снизить свои ожидания.

Андрей Карпати, один из основателей OpenAI и ведущий специалист в области исследований ИИ, считает, что пройдет не менее десятилетия, прежде чем ИИ сможет эффективно автоматизировать целые рабочие процессы .

«как сотрудник или стажер, которого вы бы наняли для работы с вами».

В подкаст-интервью он дал резкую оценку нынешним возможностям ИИ, отчасти из-за того, что крупным языковым моделям не хватает познавательных способностей, и утверждал, что большинство рабочих мест по-прежнему невозможно автоматизировать .

«В целом, моделей нет», — сказал Карпати подкастеру Дваркешу Пателю.

«Мне кажется, индустрия делает слишком большой скачок и пытается притвориться, что это потрясающе, хотя это не так. Это полная ерунда. Они не хотят с этим смириться и, возможно, пытаются собрать средства или что-то в этом роде».

Замечания Карпати нашли отклик у руководителей предприятий, находящихся на переднем крае использования агентов ИИ, которые за последний год неоднократно сталкивались с трудностями, пытаясь заставить ИИ выполнять сложные рабочие задачи без ошибок.

«Сейчас модно называть эти инструменты «агентами», но агент на самом деле не означает автономный», — сказал Донзе.

«Есть маркетинговая чушь, которая говорит, что все будет автономно, и в этом есть доля правды, но они могут быть автономными только в ограниченных случаях использования».

Другие говорят, что используют агентов на базе искусственного интеллекта для замены некоторых сотрудников, но отмечают, что за агентами нужно следить больше, чем за обычными сотрудниками.

Сахил Лавингия, генеральный директор приложения для электронной коммерции Gumroad, рассказал, что сократил размер своей команды инженеров примерно до дюжины человек по сравнению с более чем 40 два года назад благодаря агентам-кодировщикам на основе ИИ, но добавил, что оставшиеся сотрудники тратят много времени на повторную проверку работы агентов.

«Мне кажется интересным, что я могу заменить несколько рабочих мест с годовым доходом в 400 000 долларов [агентами], но не могу полностью их заменить. Я просто плачу 400 000 долларов другому человеку, который управляет агентами, чтобы они стали в четыре раза продуктивнее, а потом увольняю троих», — сказала Лавингия.

«Сгенерированный ИИ код необходимо [проверить], поскольку ИИ пока не может проверить опыт использования продукта, а это задача, отличная от кодирования».

На прошлой неделе исследователь OpenAI Себастьен Бубек поделился в X впечатляющим достижением модели GPT-5 от OpenAI: ИИ помог исследователям найти решение нескольких сложных математических гипотез, известных как задачи Эрдёша, которые впервые были выдвинуты несколько десятилетий назад математиком XX века Полом Эрдёшем.

Кевин Вейл, вице-президент OpenAI по науке, похвалился тем же достижением, заявив, что GPT-5 «нашла решения» десяти проблем Эрдёша, которые «оставались открытыми десятилетиями».

Некоторые восприняли эти заявления как доказательство того, что модели OpenAI совершенствуются в сложных математических задачах. Однако исследователь из Оксфорда Томас Блум, ведущий онлайн-базу данных задач Эрдёша, о которой говорил Бубек, в пятницу несколько развеял этот энтузиазм.

Это потому, что, как отметил Блум в X, GPT-5 на самом деле не решил рассматриваемые математические задачи; он просто выявил онлайн-публикации других математиков, которые уже решили эти задачи .

В ответе Вейлю Блум заявил, что на сайте Блума проблемы были отмечены как «открытые», поскольку сам он не знал, что другие их решили.

Вайль и Бубек удалили свои сообщения и в последующих сообщениях заявили, что они хотели пояснить, что GPT-5 оказался полезен для проведения соответствующих исследований, а не для решения математических задач.

Некоторые из конкурентов OpenAI поспешили выступить с критикой, например, генеральный директор Google DeepMind Демис Хассабис, который назвал оригинальный пост Вейля «позорным». ( Полная статья . Требуется подписка.)

Хотя эта новость потрясла мир искусственного интеллекта на этой неделе, это все довольно простые вещи, о которых я пишу и говорю уже около 2,5 лет.

ИИ НЕ может заменить людей, но новые большие языковые модели ИИ (LLM), запущенные OpenAI и Microsoft в конце 2022 года, действительно представляют определенную ценность как инструмент, помогающий людям и упрощающий и ускоряющий их работу.

Когда пузырь искусственного интеллекта лопнет, реальные приложения и полезность этого искусственного интеллекта сохранятся, но переживет ли наша экономика грядущую коррекцию рынка ?

Источник: https://healthimpactnews.com/2025/ai-developers-are-realizing-that-ai-agents-cannot-replace-humans-ai-not-comparable-to-humans-or-even-animals/