AGI математически невозможен 2: когда энтропия возвращается ( philarchive.org )
Так выходит ли человеческий мозг за рамки математики или люди в целом не обладают интеллектом?

Люди делают много вещей, которые не делают компьютеры, например, рождаются, стареют (глагол), умирают, голодают, влюбляются, размножаются и многое другое. Компьютеры могут делать эти вещи только метафорически, человеческое обучение коррелирует со всеми ними, и мы не знаем наверняка, как это сделать. Имейте немного смирения.

Дело в том, что если это математически возможно для людей, то это наивно будет возможно и для компьютеров.
Все это только звучит сложно , а не математически невозможно .
Я думаю, что у людей есть какой-то алгоритм для определения того, что является правдой, и консолидации информации. Что это такое, я не знаю.

Люди используют сок души, чтобы подключиться к понятому. Машины не могут подключиться к понятому из-за неполноты Гёделя, они могут только устанавливать отношения между токенами. Не отображать их в реальность, как мы можем с помощью магии.

Я думаю, что последний факт совершенно очевиден.

Говоря простым языком, все, что соответствует человеческому уровню интеллекта и создано нами, по определению является aigu и в целом разумно.
Люди являются мерилом общего интеллекта.
Как же так?

Я считаю, что это превосходит любую науку, которую мы поймем и освоим в течение жизни любого живущего сегодня человека. Это по всем намерениям и целям превосходит науку с нашей точки зрения, но не обязательно в принципе.

В данной статье представлено теоретическое доказательство того, что системы AGI будут структурно разрушаться при определенных семантических условиях — не из-за недостатка вычислений, а из-за того, как энтропия ведет себя в пространствах решений с тяжелыми хвостами.
Идея называется IOpenER: Information Opens, Entropy Rises. Она основана на теории информации Шеннона, чтобы показать, что в определенных классах задач (с α ≤ 1) добавление информации не уменьшает неопределенность — оно ее увеличивает. Система не может сходиться, потому что само значение продолжает множиться.
Основная концепция — расхождение энтропии в этих пространствах — уже присутствовала в моей предыдущей статье, загруженной на PhilArchive 1 июня. Эта версия формализует ее. Исследование Apple, The Illusion of Thinking, было опубликовано несколькими днями позже. Оно показывает, что модели пограничного рассуждения, такие как Claude 3.7 и DeepSeek-R1, ломаются именно тогда, когда сложность проблемы возрастает — несмотря на достаточный бюджет вывода.
Я не писал эту статью в ответ на работу Apple. Но совпадение поразительное. Их эмпирические выводы, похоже, совпадают с тем, что предсказывает IOpenER.
Интересно, что думает это сообщество: это значимое совпадение или просто интересное совпадение?
Ссылки:
Эта статья (энтропия + IOpenER): https://philarchive.org/archive/SCHAIM-14
Первая статья (ICB + вычислимость): https://philpapers.org/archive/SCHAII-17.pdf
Исследование Apple: https://machinelearning.apple.com/research/illusion-of-think…
Похоже на «теорему о недопустимости бесплатных обедов».
Как вы отметили в 2.1, существуют широко распространенные разногласия относительно того, что означает “AGI”. Я заметил, что вы перечислили несколько определений, которые по сути являются “эквивалентом человека”. Поскольку людей можно свести к физике, а физику можно выразить как компьютерную программу, очевидно, что любое такое определение может быть достигнуто достаточно мощным компьютером.
В пункте 3.1 вы утверждаете:
“””
Теперь давайте посмотрим, что происходит, когда система искусственного интеллекта, оснащенная новейшей обработкой естественного языка, анализом настроений и социальными рассуждениями, пытается разобраться в этом вопросе. Искусственный интеллект начинает свой анализ:
• Вариант 1: Правдивый ответ на основе биометрических данных → Рассчитывает вероятное негативное эмоциональное воздействие → Корректирует параметр честности → Но подождите, а как же история отношений? → Пересчитывает…
• Вариант 2: Дипломатическое отклонение → Анализ 10 000 успешных моделей отклонения → Но тон имеет значение → Необходим анализ микровыражений → Но время имеет значение → Но прошлые разговоры имеют значение → Продолжаем подсчитывать…
• Вариант 3: Ласковое перенаправление → Обработка оптимального настроения → Но что здесь оптимально? Цель постоянно меняется → Это честность? Гармония? Доверие? → Параметры нестабильны → Все еще рассчитываем…
• Вариант н: ….
Странно, не правда ли? ИИ не рухнул. Он все еще работает. Фактически, он генерирует все более и более тонкие анализы. Каждый дополнительный фактор может открыть десять новых соображений. Он не приближается к ответу — он расходится.
“””
Какой ИИ? ChatGPT просто дает ответ.
Я не собираюсь читать 47 страниц, чтобы проверить наличие других подобных проблем.
Не читая статью, как, черт возьми, agi математически невозможен, если люди возможны? Если только статья не утверждает, что люди математически невозможны?
Я прочитаю статью, но ее название, похоже, оторвано от реальности.
Предупреждение: это шарлатанство.
Source: news.ycombinator.com