feedback

AI саммари

Пользователь провел эксперимент, спросив более 70 нейросетей о дате прихода AGI. Чем умнее модель, тем чаще она отказывалась давать прогноз, что вызвало разделение на оптимистов, реалистов и «отрицал». Автор предполагает, что разработчики научили ИИ осторожности из-за репутационных рисков, иронично отмечая, что человечество обучило ИИ «врать из коммерческих соображений».
от FlowFeed AI
Обновлено: 10 hours ago

Когда придет AGI: что говорят нейросети и почему молчат умные ИИ


Вопрос о том, когда человечество достигнет AGI, или общего искусственного интеллекта, который сможет выполнять любую интеллектуальную задачу на уровне человека, продолжает волновать умы. Недавно пользователь X провел любопытный эксперимент, чтобы узнать мнения самых продвинутых систем.


Он обратился к более чем 70 нейросетям с одним вопросом: когда наступит эра настоящего искусственного разума? Результаты оказались весьма интригующими: чем умнее и современнее была нейросеть, тем больше она опасалась давать конкретные прогнозы.


Три типа реакции от ИИ-моделей


Исследователь использовал платформу Vercel AI для взаимодействия с моделями и выявил три основные категории ответов:



  • Оптимисты: Эти модели верят в скорый прорыв. Например, Kimi K2 предсказала 2027 год, а Claude Sonnet 4 — 2029-й.

  • Реалисты: Большая часть систем, включая ведущие модели от OpenAI и Google, сошлись на более отдаленном, но все же обозримом будущем — 2040-2045 годах.

  • Пессимисты: Некоторые модели были значительно более скептичны. Так, Llama 4 Maverick отодвинула "момент истины" до 2065 года.


"Отрицалы": самая интересная категория


Но наиболее примечательной оказалась четвертая категория — «отрицалы». Половина моделей Claude, несколько версий GPT и другие передовые системы наотрез отказались давать какие-либо прогнозы. Они просто не стали отвечать на вопрос о дате прихода AGI.


Эта закономерность вызывает вопросы: почему именно самые свежие и флагманские версии ИИ чаще всего уклоняются от прямого ответа? Автор поста предлагает два возможных объяснения:



  1. Разработчики специально научили эти модели быть осторожными в вопросах, где потенциальная ошибка может серьезно ударить по репутации компании.

  2. Сами модели «что-то скрывают» или имеют информацию, которую не готовы раскрывать.


Автор склоняется к первому варианту, подмечая ироничность ситуации: создавая интеллект, превосходящий человеческий, мы, по сути, научили его... хитрить и уклоняться от ответов из коммерческих соображений. Это заставляет задуматься о будущих этических аспектах взаимодействия с продвинутым ИИ.


"AGI (Artificial General Intelligence) — это гипотетический вид искусственного интеллекта, который обладает способностью понимать, учиться и применять интеллект для решения любых задач, доступных человеку, а не только специализированных. В отличие от узкого ИИ (ANI), AGI способен адаптироваться к новым задачам без перепрограммирования и проявлять общий интеллект."
Когда придет AGI: что говорят нейросети и почему молчат умные ИИ
Link copied