_«The thought process and the instructions are more valuable than the immediate result.»_ — TFW Manifesto Последнее время я много думаю о знании. О том, что это вообще такое и можно ли его передать машине. Мысли накапливались из разных мест — из собственной работы, из научных статей, из случайной находки в чужом коде — и в какой-то момент сложились в картину, которой хочу поделиться. Это три истории. Каждая сама по себе, но все три ведут к одному и тому же вопросу. --- Два года назад я начал активно работать с ИИ. И столкнулся с парадоксом: инструмент, который обещал ускорить работу, чаще всего её замедлял. Модель выдавала горы текста, но не делала то, что мне было нужно. Она не понимала контекст, не помнила предыдущих решений, не видела картину целиком. Я начал учиться ей управлять. Интуитивно пришёл к тому, что модели нужно писать не просто задачу, а весь ход мыслей: как я думаю, почему выбрал этот путь, какие альтернативы отверг, что точно хочу получить на выходе — шаг за шагом. Так появился [TFW](https://github.com/saubakirov/trace-first-starter) — Trace-First Workflow. Методика, в которой нет ни строчки кода. Только текст: как нужно думать и что делать по шагам, чтобы получить результат. По сути я пытался формализовать собственное мышление — записать алгоритм того, как я работаю, и передать его ИИ. И это оказалось невероятно сложной задачей. Не технически. Концептуально. Потому что нужно было ответить на вопрос: а что такое «сделать работу»? Что значит «думать»? --- Параллельно я стал замечать, что не один задаюсь такими вопросами. Учёные, работающие с ИИ, всё чаще обращаются к философии — причём не к современной, а к фундаментальной. К Платону. Исследователи из MIT опубликовали работу [The Platonic Representation Hypothesis](https://phillipi.github.io/prh/). Они показывают, что разные модели ИИ — языковые, визуальные, мультимодальные — конвергируют к одному и тому же внутреннему представлению реальности. И проводят прямую аналогию с платоновским миром идеальных форм: > *«The training data for our algorithms are shadows on the cave wall, yet, we hypothesize, models are recovering ever better representations of the actual world outside the cave.»* Данные — тени на стене пещеры, но модели всё лучше реконструируют реальный мир за её пределами. Как будто тени — достаточно, если их достаточно много. Сергей Левин из Беркли идёт дальше. Он [пишет](https://sergeylevine.substack.com/p/language-models-in-platos-cave), что LLM не изучают мир напрямую — они реконструируют человеческий разум по тени, которую он отбрасывает в интернете. Каждый текст в сети — результат чьего-то мыслительного процесса. Решение задачи. Написание шутки. Объяснение концепции. Предсказывая следующий токен, модель пытается обратить этот процесс — воссоздать ментальную модель автора. > *«While the Human Connectome Project is busy reconstructing the human brain neuron by neuron, LLMs are trying to skip the neurons all together and reconstruct the mind from the shadow it casts on the Internet.»* Пока Human Connectome Project восстанавливает мозг нейрон за нейроном, LLM пропускают нейроны и реконструируют разум напрямую — по тени, которую он отбрасывает в интернете. Самый мощный «сканер мозга» в истории. Только он видит тени, а не объекты, которые их отбрасывают. Бен Гёртцель задаётся ещё более прямым вопросом: [«Что такое наука?»](https://bengoertzel.substack.com/p/what-is-science-exactly) И приходит к выводу, что текущий ИИ умеет проверять гипотезы и находить решения в рамках уже известных правил. Но создавать новые парадигмы — новые способы думать о реальности — пока не может. Потому что для этого нужно сначала определить, что такое «простое», «важное» и «знание». А это философские вопросы, которые мы сами до конца не решили. Я понимаю, почему учёные вернулись к Платону. Если мы хотим, чтобы науку двигали машины, мы сначала должны сами понять, что такое наука и знание. Нельзя автоматизировать то, что ты не можешь определить. --- А третья история совсем из другой области. Я пишу длинные промпты. Объясняю модели контекст, ожидания, ограничения. Итерирую в чатах. Это работает, но это дорого — по времени и по токенам. И вот недавно, изучая устройство [Claude Code](https://docs.anthropic.com/en/docs/claude-code), я наткнулся на решение, которое поразило меня своей простотой. Функция называется **Dreaming**. Фоновый процесс, который запускается между сессиями: перечитывает все заметки, сверяет факты, удаляет устаревшее, объединяет дублирующую информацию, разрешает противоречия. Это прямая аналогия с тем, что делает наш мозг во время сна — переносит важное в долговременную память и проводит синаптический прунинг, уничтожая лишние связи. Но меня поразило не это. А то, как они это объяснили модели. Они просто назвали процесс **Dreaming** и **Pruning** — устоявшиеся нейробиологические термины. Модель уже знает, что такое «сон» и «прунинг». Ей не нужна страница объяснений — достаточно одного слова, и она понимает цель, контекст и ожидаемый результат. Промпт получился коротким и компактным. Потому что не надо объяснять, что такое Сон. Меня это зацепило. Я месяцами писал длинные инструкции для ИИ, пытаясь объяснить, как я думаю. А оказывается, если процессу есть правильное название — модель понимает мгновенно. Термины — это не просто удобство. Это **сжатие контекста**. Одно точное слово заменяет страницу объяснений. --- И вот мы возвращаемся к началу. Я писал TFW, чтобы наделить ИИ знаниями о том, как правильно выполнять работу. Формализовывал процесс мышления на естественном языке. Но чем глубже я погружался, тем яснее становилось: я пытаюсь определить «знание» через «знание». Это рекурсия — нельзя определить понятие через само это понятие. Чтобы объяснить ИИ, как думать, нужно сначала понять, что такое «думать». Чтобы автоматизировать науку, нужно формализовать, что такое «наука». Чтобы передать знание, нужно определить, что такое «знание». Так мы оказываемся у Платона. Этим вопросам два с половиной тысячелетия, и ответа до сих пор нет. Но, может, именно ИИ заставит нас его наконец найти. Не потому, что он даст ответ. А потому, что без ответа мы не сможем двигаться дальше. Вопросов пока больше, чем ответов. **Полезное:** - [The Platonic Representation Hypothesis](https://phillipi.github.io/prh/) — MIT, 2024 - [Language Models in Plato's Cave](https://sergeylevine.substack.com/p/language-models-in-platos-cave) — Sergey Levine - [LLMs Are Stuck in Plato's Cave](https://www.lesswrong.com/posts/9saDuxsfZEHGj8eJx/llms-are-stuck-in-plato-s-cave) — LessWrong - [The Platonic Representation Hypothesis (paper)](https://arxiv.org/html/2405.07987v1/) — arXiv - [What is «Science», Exactly?](https://bengoertzel.substack.com/p/what-is-science-exactly) — Ben Goertzel - [Trace-First Workflow](https://github.com/saubakirov/trace-first-starter) — TFW [[19. Выступления Андрея Карпаты]] #ai #философия #tfw #знание