AGI математически невозможен 2: когда энтропия возвращается=news.ycombinator.com=

AGI математически невозможен 2: когда энтропия возвращается ( philarchive.org )

like_any_other 17 минут назад | [–]
Так выходит ли человеческий мозг за рамки математики или люди в целом не обладают интеллектом?
autobody 5 минут назад | | [–]
Люди делают много вещей, которые не делают компьютеры, например, рождаются, стареют (глагол), умирают, голодают, влюбляются, размножаются и многое другое. Компьютеры могут делать эти вещи только метафорически, человеческое обучение коррелирует со всеми ними, и мы не знаем наверняка, как это сделать. Имейте немного смирения.
onlyrealcuzzo 1 минуту назад | | | [–]
Дело в том, что если это математически возможно для людей, то это наивно будет возможно и для компьютеров.

Все это только звучит сложно , а не математически невозможно .

ffwd 3 минуты назад | | | [–]
Я думаю, что у людей есть какой-то алгоритм для определения того, что является правдой, и консолидации информации. Что это такое, я не знаю.
ImHereToVote 1 минуту назад | | | [–]
Люди используют сок души, чтобы подключиться к понятому. Машины не могут подключиться к понятому из-за неполноты Гёделя, они могут только устанавливать отношения между токенами. Не отображать их в реальность, как мы можем с помощью магии.
xeonmc 5 минут назад | | | [–]
Я думаю, что последний факт совершенно очевиден.
девяностодевятнадцать 4 минуты назад | | | [–]
Говоря простым языком, все, что соответствует человеческому уровню интеллекта и создано нами, по определению является aigu и в целом разумно.

Люди являются мерилом общего интеллекта.

umanwizard 5 минут назад | | | | [–]
Как же так?
add-sub-mul-div 4 минуты назад | | | [–]
Я считаю, что это превосходит любую науку, которую мы поймем и освоим в течение жизни любого живущего сегодня человека. Это по всем намерениям и целям превосходит науку с нашей точки зрения, но не обязательно в принципе.
ICBTheory 26 минут назад | | [–]
В данной статье представлено теоретическое доказательство того, что системы AGI будут структурно разрушаться при определенных семантических условиях — не из-за недостатка вычислений, а из-за того, как энтропия ведет себя в пространствах решений с тяжелыми хвостами.

Идея называется IOpenER: Information Opens, Entropy Rises. Она основана на теории информации Шеннона, чтобы показать, что в определенных классах задач (с α ≤ 1) добавление информации не уменьшает неопределенность — оно ее увеличивает. Система не может сходиться, потому что само значение продолжает множиться.

Основная концепция — расхождение энтропии в этих пространствах — уже присутствовала в моей предыдущей статье, загруженной на PhilArchive 1 июня. Эта версия формализует ее. Исследование Apple, The Illusion of Thinking, было опубликовано несколькими днями позже. Оно показывает, что модели пограничного рассуждения, такие как Claude 3.7 и DeepSeek-R1, ломаются именно тогда, когда сложность проблемы возрастает — несмотря на достаточный бюджет вывода.

Я не писал эту статью в ответ на работу Apple. Но совпадение поразительное. Их эмпирические выводы, похоже, совпадают с тем, что предсказывает IOpenER.

Интересно, что думает это сообщество: это значимое совпадение или просто интересное совпадение?

Ссылки:

Эта статья (энтропия + IOpenER): https://philarchive.org/archive/SCHAIM-14

Первая статья (ICB + вычислимость): https://philpapers.org/archive/SCHAII-17.pdf

Исследование Apple: https://machinelearning.apple.com/research/illusion-of-think…

ben_w 1 минуту назад | | [–]
Похоже на «теорему о недопустимости бесплатных обедов».

Как вы отметили в 2.1, существуют широко распространенные разногласия относительно того, что означает “AGI”. Я заметил, что вы перечислили несколько определений, которые по сути являются “эквивалентом человека”. Поскольку людей можно свести к физике, а физику можно выразить как компьютерную программу, очевидно, что любое такое определение может быть достигнуто достаточно мощным компьютером.

В пункте 3.1 вы утверждаете:

“””

Теперь давайте посмотрим, что происходит, когда система искусственного интеллекта, оснащенная новейшей обработкой естественного языка, анализом настроений и социальными рассуждениями, пытается разобраться в этом вопросе. Искусственный интеллект начинает свой анализ:

• Вариант 1: Правдивый ответ на основе биометрических данных → Рассчитывает вероятное негативное эмоциональное воздействие → Корректирует параметр честности → Но подождите, а как же история отношений? → Пересчитывает…

• Вариант 2: Дипломатическое отклонение → Анализ 10 000 успешных моделей отклонения → Но тон имеет значение → Необходим анализ микровыражений → Но время имеет значение → Но прошлые разговоры имеют значение → Продолжаем подсчитывать…

• Вариант 3: Ласковое перенаправление → Обработка оптимального настроения → Но что здесь оптимально? Цель постоянно меняется → Это честность? Гармония? Доверие? → Параметры нестабильны → Все еще рассчитываем…

• Вариант н: ….

Странно, не правда ли? ИИ не рухнул. Он все еще работает. Фактически, он генерирует все более и более тонкие анализы. Каждый дополнительный фактор может открыть десять новых соображений. Он не приближается к ответу — он расходится.

“””

Какой ИИ? ChatGPT просто дает ответ.

Я не собираюсь читать 47 страниц, чтобы проверить наличие других подобных проблем.

девяностодевятнадцать 5 минут назад | | [–]
Не читая статью, как, черт возьми, agi математически невозможен, если люди возможны? Если только статья не утверждает, что люди математически невозможны?

Я прочитаю статью, но ее название, похоже, оторвано от реальности.

weregiraffe 3 минуты назад | [–]
Предупреждение: это шарлатанство.


Рассмотрите возможность подачи заявки на набор в YC на осень 2025 года! Заявки принимаются до 4 августа

Source: news.ycombinator.com

Leave a Reply

Your email address will not be published. Required fields are marked *