ИИ совершенствует себя, используя эволюционный трюк ( ieee.org )
Хотелось бы, чтобы такая организация, как IEEE, была бы гораздо более строгой, чем та, что раскрыта в первом абзаце:
>В апреле генеральный директор Microsoft заявил, что искусственный интеллект теперь пишет около трети кода компании. В октябре прошлого года генеральный директор Google назвал их число около четверти. Другие технологические компании не могут быть далеки от этого.
Подумайте минутку — треть кода компании? Генеративный ИИ, способный писать разумный код, возможно, не существует уже более 5 лет. За 50 лет существования Microsoft, внесли ли последние 5 лет вклад в треть общей кодовой базы? Это само по себе потребовало бы, чтобы ни один инженер не написал ни одной строчки кода за эти 5 лет.
Хорошо, может быть, Microsoft имела в виду новый/инкрементный код?
Нет, потому что, как сообщается, Сатья сказал: «Я бы сказал, может быть, 20%, 30% кода, который находится сегодня в наших репозиториях […], написано программным обеспечением».
Я почти уверен, что они имели в виду 1/3 всего нового кода, но, очевидно, они не имели в виду, что треть всего существующего кода была написана ИИ.
Это разумная интерпретация, но это не то, что сказала Microsoft. Сатья говорит о «30% кода, который находится внутри наших репозиториев сегодня».
Источник: https://www.cnbc.com/2025/04/29/satya-nadella-says-as-much-a …
как обычный человек, он мог просто галлюцинировать 🙂
Его работа не в том, чтобы точно сообщать цифры или делать что-то, что требует технической проницательности. Его работа больше похожа на работу чирлидера или зазывалы на карнавале.
Если треть кода Microsoft будет выглядеть как этот PR, сгенерированный вторым пилотом [1], компания скоро полетит в трубу. И я надеюсь, что это произойдет, так что эти корпоративные руководители получат суровый урок, когда их выгонят за навязывание глупости в организации.
[1] https://github.com/dotnet/runtime/pull/115762
https://www.google.com/search?q=msft+stock
Они никогда не были так хороши
Они явно имеют в виду “новый” код. То есть в любой недавний день этот объем кода был создан ИИ.
Нет, потому что утверждение Сатьи касается «30% кода, который находится сегодня в наших репозиториях».
Источник: https://www.cnbc.com/2025/04/29/satya-nadella-says-as-much-a…
Следующим прорывом LLM станет удаление 30% кода из кодовой базы.
Совершенно очевидно, что он имел в виду не это.
Вероятно, они имеют в виду новый код, а не всю кодовую базу, но даже в этом случае я считаю эти цифры смехотворными, учитывая мой опыт.
Есть ли какие-либо доказательства этого (где-нибудь, не только у MS или Google)?
Я не уверен, что это смешно, если вы учитываете что-то вроде copilot. Черт, даже встроенное автодополнение вашей IDE (которое завершает только текущее имя переменной) может приблизиться к ответственности за 20% вашего кода, а с такими инструментами, как copilot, я думаю, вы сможете еще легче достичь этой цели.
Я всегда интерпретировал это как «третью (нового) кода компании», хотя, полагаю, было бы мило с их стороны прояснить это.
Недавно написанный код. Но консенсус в том, что это завышенные цифры, которые не включают в себя необходимые этому коду правки. Было бы интересно, если бы они сказали нам, какой % кода, сгенерированного LLM, выбрасывается.
Здесь можно провести интересную параллель с предыдущими исследованиями RL:
«Некоторые эволюционные алгоритмы сохраняют только лучших исполнителей в популяции, предполагая, что прогресс движется вперед бесконечно. Однако DGM сохраняют их всех на тот случай, если изначально провалившаяся инновация на самом деле станет ключом к последующему прорыву при дальнейшей доработке. Это форма «открытого исследования», не закрывающая никаких путей к прогрессу. (DGM отдают приоритет более высоким показателям при выборе предшественников.)» Кеннет Стэнли[0], создатель алгоритмов NEAT[1]/HyperNEAT (Picbreeder), написал целую книгу об открытом исследовании: «Почему величие невозможно спланировать: миф об объективности» .
[0]: https://en.wikipedia.org/wiki/Кеннет_Стэнли
[1]: https://en.wikipedia.org/wiki/Нейроэволюция_усиления_т…
На самом деле это выбор: хотите ли вы тратить впустую вычислительные ресурсы или потенциал?
Хотя приоритетное назначение более высоких показателей для выбора прародителей изначально смягчит некоторые проблемы, в конечном итоге вы получите сотни тысяч агентов, которые научились повторять только букву «а» миллион раз подряд, что является огромной тратой времени.
Новая вещь
> Новые системы, описанные в недавнем препринте на arXiv, опираются на такие доказательства. В знак уважения к Шмидхуберу их называют машинами Дарвина-Геделя (DGM). DGM начинается с кодирующего агента, который может читать, писать и выполнять код, используя LLM для чтения и записи. Затем он применяет эволюционный алгоритм для создания множества новых агентов. В каждой итерации DGM выбирает одного агента из популяции и поручает LLM создать одно изменение для улучшения способности агента к кодированию. LLM обладают чем-то вроде интуиции относительно того, что может помочь, поскольку они обучены на большом количестве человеческого кода. Результатом является направленная эволюция, где-то между случайной мутацией и доказуемо полезным улучшением. Затем DGM тестирует нового агента на эталонном тесте кодирования, оценивая его способность решать задачи программирования.
Я думаю, это достаточно интересно для отдельного поста: https://arxiv.org/abs/2505.22954
Из аннотации статьи: «Все эксперименты проводились с соблюдением мер предосторожности (например, песочница, контроль со стороны человека)».
Действительно ли авторы считают, что “безопасность” необходима, то есть существует риск, что что-то пойдет не так? Какой риск?
Количество строк кода… вес самолета… и т.д.
Source: news.ycombinator.com