A Universal Mechanism for Cognition Through Analogies, or Transferring Relations of a Known Concept to the One Being Studied
Suppose we have a person who has been interested in the science of botany since childhood — this is their knowledge domain. They have no books and have never had any books other than books on botany, and they studied it in isolation from other sciences. As a result, this person knows that there are plants. In their mind, a model of the biology domain has formed that contains the concepts of this domain, particularly plants as living organisms, concepts of various plant genera, and so on. In other words, in the weights of their neural network reconstructed from books, there is a full graph of the concepts and relationships of the science of botany. In particular, this person knows that there are plants such as trees. They know typical species, what they look like, where they grow. They know that there are different species with different needs and properties within certain geographic boundaries. Even an isolated domain will still carry redundancy and duplicate part of the information from potential other domains, such as the knowledge domain of geography. This person is able to describe any known concept of this domain, but what does that mean? In other words, they are able, for a given previously studied concept, to retrieve related concepts and their relationships. In other words, this can be called the ability to find a topological neighborhood for an arbitrarily given concept of a previously learned domain. We postulate that throughout their life this person has never heard anything about the knowledge domain (science) of biology. However, if this person is offered to explore a new, unknown domain of knowledge — biology — and the introduction starts with this phrase:
"A horse is a living being, but not a plant" — what can our person do with this knowledge?
A person would ask — does this horse have roots, or how does it feed? And how exactly did the person formulate this hypothesis that a horse must feed on something and why did they presume the existence of roots?
In the domain of botany, the concept of a plant is linked to the concept of feeding, which is implemented mainly through roots.
It turns out that a person can intuitively project connections from a known concept onto an unknown one! Thus, through the more general parent meta-concept of life, they projected the existing connections of the plant onto the new concept of animal on the basis of their commonality through the parent concept of life.
Having projected the connections from one concept onto another, a person can begin cognition with the hypothesis that the projection result is most likely valid in the neighborhood of the new concept of animal, and can formulate tests to check the quality of their projection — ask a question, the answer to which will confirm the correctness of some part of the projection or weaken it!
Having transferred from botany to biology, a person would hypothesize how animals feed — through roots. A logical assumption if you have never seen animals. But how would you continue studying them after learning that there are no roots?
First, you would weaken/cut off the concept of root for the animal based on the interlocutor's answer (or the result of observation). Children do this constantly by asking questions about the world around them. They ask questions and memorize answers, some of which they carry for their entire lives.
But you would still need a concept that fulfills the need for nutrition for a living being. If animals are part of the concept of life, then they have nutrition, which means that based on the input information the topological place of the root must be replaced with some other isomorphic concept as the supplier of nutrition. This is your hypothesis that something must fulfill this concept in the new domain. And you can search for this concept in the external world, ask questions, conduct experiments. And this will allow you to discover that in animals the supplier of nutrition is the concept of the mouth. You arrived at this using projection from the known domain onto the new concept through the common meta-concept of supplier of nutrition.
Moreover, our botanist can continue learning by analogy. They will also be able to assume that the concept of parasitism exists in animals, just as it exists in the domain of botany. Simply by projecting connections from the known domain onto the domain being studied. And they can once again run a check, confirming or refuting this hypothesis, strengthening it or weakening it. This is how dynamic learning happens.
What do we need to be able to do for such dynamic learning?
- build knowledge domains (new MoE?);
- extract connections from a domain relative to a given concept;
- search for isomorphisms in other domains, invariant to scale. Possibly discovering a connection through meta-concepts/parent concepts (plant and animal are both concepts of life);
- fill gaps in parts of some domains through projection from known parts of other domains (or the same domain), verifying the projection results and either preserving or weakening the connection of the inherited projection;
- dynamically identify new knowledge domains if new information generates a unique topology unlike anything known before.
As a result, we obtain a universal AI model capable of learning quickly, using a new type of native conceptual transfer learning.
Of particular interest is the mechanism of forming mathematical concepts through topological transfer. Mathematics in this paradigm is groups of similar isomorphisms generated by generalizing recurring patterns across different domains (or their parts).
Consider the concept of quantity. An AI interacting with different domains — counting apples in botany, sheep in animal husbandry, days in the calendar — discovers an invariant topological structure: discrete elements, the operation of union of sets, and the property of commutativity under union. Projecting these recurring patterns into the meta-domain and cutting off context-dependent properties (apple color, sheep breed), the system derives the abstract concept of the natural number and operations on it. Similarly, the concept of continuous change, observed in plant growth, object movement, and temperature change, when projected into the meta-domain generates the concepts of function, limit, derivative.
The key distinction of the mathematical meta-domain is the highest degree of abstraction. It contains pure topological structures, cleansed of all concrete properties of the original domains. The system can use this meta-domain to instantly transfer mathematical regularities to any new domain where an isomorphic topology is detected. Discovering in an unfamiliar domain a structure isomorphic to a group, the system immediately applies the entire apparatus of group theory without the need for retraining.
Thus, mathematical thinking emerges not as a separate ability but as a natural consequence of the mechanism of consolidating topologies: discovering common invariants, abstracting them, and forming higher-order meta-concepts. This explains the “unreasonable effectiveness of mathematics” — it is effective because it is a distillation of fundamental topological invariants present in many concrete domains of reality and, in some ways, reflects the (imperfect) fractal nature of existence.
Humans often have fragmented memory and thinking. In one context they build one chain of reasoning, in another context — another, and these are often mutually exclusive. People say “they say one thing, then another,” and this inconsistency is likely a normal property of our thinking that can be smoothed but not completely eliminated everywhere at once.
A self-aware person can combat this only through reflection on their knowledge and thoughts. Why do I think/assume this? Why do I think B in situation A, and C in situation D? Where do I know this from? Are there contradictions here, am I unbiased in my conclusions?
They can identify contradictions and attempt to resolve them. Bring their views to a common denominator, remove logical contradictions in their worldview, consolidate the world model. Two operations are involved:
-
Remove the component of personal perception stored in memory from the final reasoning. “I like democrats → what democrats do carries a positive evaluation.” In fact, there should be no positive evaluation in my logical reasoning; any evaluations should be given to arguments and consequences, not to the author’s reputation, which can only serve as an initial criterion for a quick assessment without thinking. Democrats can also do bad things that should receive their negative evaluations without cognitive distortion due to personal predisposition toward them.
-
Consolidate a fragmented world model. It may turn out that in the course of cognition, fragments of domains with identical topology were created. The task is to find such topologies and strengthen their connection with the overall topology of the meta-model (the model of meta-concepts), consolidating the domain topologies with it. When irreconcilable contradictions are found, where domain topologies truly diverge due to factual differences between entities, the system must:
- and/or dynamically create a new (sub)domain or strengthen the divergence by linking it with the cause of the divergence (or a separate domain), fixing unique topological patterns;
- and/or adjust the meta-domain, expanding its conceptual space to account for the identified divergences and preserve common invariants.
This achieves an adaptive hierarchy of knowledge: domains specialize when necessary, and the meta-level evolves while preserving the consistency of the entire system of representations.
A conceptual scheme is proposed for the automatic native construction of a world model by an AI system that is inherently curious, builds hypotheses based on what is known, verifies them, remembers the verification results, and uses them further, without requiring hundreds of thousands of examples to study something new.
How can this be implemented in practice? I am convinced that we already have all the necessary computational power and nearly all the architectural techniques to create such a system; the only question is how to combine them correctly.
Универсальный механизм познания через аналогии ИЛИ трансфер связей известного концепта, относительно изучаемого.
Пусть у нас есть человек, который с детства интересуется наукой «Ботаника» — это его домен знаний. У него нет и не было никаких книг, кроме книг по ботанике и он изучал её изолированно от других наук. Как следствие этот человек знает, что существуют растения. У него в голове сформирована модель предметной области биологии, в которой есть концепты данного домена, в частности растения как живого организма, концепты различных родов растений и т. д. Иными словами в весах его нейросети из книг восстановлен полноценный граф концептов и их отношений науки «Ботаника». В частности, этот человек знает, что есть такие растения как деревья. Знает типовые виды, как они выглядят, где растут. Знает что бывают разные виды с различными потребностями и свойствами в рамках определённых географических границ. Даже изолированный домен так или иначе будет нести избыточность и дублировать часть информации из потенциальных иных доменов, как, например, домен знаний «География». Этот человек способен рассказать про любой известный ему концепт этого домена, но что это значит? Иными словами он способен для заданного ранее изученного концепта извлечь связанные с ним понятия и их отношения. По другому это можно назвать способностью находить топологическую окрестность для произвольно заданного концепта выученного ранее домена. Постулируем, что за всю жизнь этот человек никогда ничего не слышал о домене знаний (науке) «Биология». Однако, если челоеку предложат познать новый, неизвестный ему домен знаний «Биология» и начнут с такой фразы:
«Лошадь это живое существо, но не растение» — что наш человек сможет сделать с этим знанием?
Человек бы спросил - а есть ли у этой лошади корни, или как она питается? А как собственно человек сформулировал эту гипотезу о том, что лошадь должна чем-то питаться и почему предположил наличие корней?
В домене ботаники концепт растения связан с концептом и питания, который реализуется в основном посредством корней.
Оказывается, человек умеет интуитивно проецировать связи с известного ему концепта на неизвестный! Таким образом он через более общий родительский мета-концепт «жизнь» сделал проекцию существующих у «растения» связей на новый концепт «животное», на основании их общности по родительскому концепту «жизнь».
Сделав проекцию связей с одного концепта на другой, человек может начать познание с гипотезы, что результат проекции наиболее вероятно валиден в окрестности нового концепта «животное», и может сформулировать тесты для проверки качества своей проекции — задать вопрос, ответ на который зафиксирует верность какой-то части проекции, или ослабит её!
Сделав перенос из ботаники в биологию, человек предположил бы как питаются животные — корнями. Логичное предположение, если вы никогда не видели животных. Но как бы вы стали изучать их дальше, узнав, что корней нет?
Во-первых, вы бы ослабили/отрезали концепт «корня» для животного на основе ответа собеседника (или результата наблюдения). Дети делают это постоянно задавая вопросы об окружающем мире. Они задают вопросы и запоминают ответы, с некоторыми из которых порой ходят всю жизнь.
Но вам по-прежнему был бы нужен концепт, реализующий потребность в питании для живого. Если животные — часть концепта «жизнь», то питание у них есть, значит, на основе входной информации топологическое место корня должно быть замещено иным изоморфным концептом как поставщиком питания. Это ваша гипотеза, что что-то должно реализовывать этот концепт в новом домене. И вы можете искать этот концепт во внешнем мире, задавать вопросы, ставить опыты. И позволит вам узнать, что у животных поставщик питания — концепт «рот». Вы пришли к этому, использовав проекцию с известного домена на новый, через общий мета-концепт «поставщик питания».
Более того, наш ботаник может продолжить познание по аналогии. Он также сможет предположить, что концепт паразитизма существует и у животных, подобно тому как он существует в домене ботаники. Просто спроецировав связи из известного домена на изучаемый домен. И он вновь может провести проверку, подтвердив или опровергнув эту гипотезу, закрепив её или ослабив. Так происходит динамическое обучение.
Что нам нужно уметь для такого динамического обучения?
- строить домены знаний (new MoE?);
- выделять связи из домена относительно заданного концепта;
- инвариантно к масштабу искать изоморфизмы в других доменах. Возможно обнаруживая связь через мета-концепты/концепты-родители (растение и животное — оба являются концептами жизни);
- заполнять пробелы в частях одних доменов через проекцию из известных частей других доменов (или этого же), производя проверку результатов проекции и либо сохраняя, либо ослабляя связь унаследованной проекции;
- динамически выделять новые домены знаний, если новая информация порождает уникальную топологию, не похожую ни на что известное ранее.
Как результат мы получим универсальную модель ИИ, способную быстро обучаться, используя новый тип нативного концептуального трансфер-лёрнинга.
Особый интерес представляет механизм формирования математических концептов через топологический трансфер. Математика в этой парадигме — это группы схожих изоморфизмов, порождённых из обобщения повторяющихся паттернов в разных доменах (их частях).
Рассмотрим концепт «количество». AI, взаимодействуя с разными доменами — считая яблоки в ботанике, овец в животноводстве, дни в календаре — обнаруживает инвариантную топологическую структуру: дискретные элементы, операцию объединения множеств, свойство коммутативности при объединении. Проецируя эти повторяющиеся паттерны в мета-домен и отсекая контекстно-зависимые свойства (цвет яблок, порода овец), система выводит абстрактный концепт натурального числа и операций над ним. Аналогично, концепт «непрерывного изменения», наблюдаемый в росте растений, движении объектов, изменении температуры, при проекции в мета-домен порождает концепты функции, предела, производной.
Ключевое отличие математического мета-домена — максимальная степень абстракции. Он содержит чистые топологические структуры, очищенные от всех конкретных свойств исходных доменов. Система может использовать этот мета-домен для мгновенного переноса математических закономерностей в любой новый домен, где обнаруживается изоморфная топология. Обнаружив в незнакомом домене структуру, изоморфную группе, система немедленно применяет весь аппарат теории групп без необходимости повторного обучения.
Таким образом, математическое мышление возникает не как отдельная способность, а как естественное следствие механизма консолидации топологий: обнаружение общих инвариантов, их абстрагирование и формирование мета-концептов высшего порядка. Это объясняет «непостижимую эффективность математики» — она эффективна потому, что является дистилляцией фундаментальных топологических инвариантов, присутствующих во множестве конкретных доменов реальности и отражающих в чём-то (несовершенную) фрактальную природу бытия.
У человека часто так бывает, что его память и мышление фрагментарны. В одном контексте он строит одни цепочки рассуждений, в другом контексте — другие, причём зачастую взаимоисключающие. Про это говорят что «человек говорит то одно, то другое», непоследователен. Вероятно это нормальное свойство нашего мышления, которое можно пытаться сгладить, но от которого полностью сразу и везде не избавиться.
Осознанный человек может с этим бороться только посредством рефлексии над своими знаниями и мыслями. А почему я так думаю/так считаю? Почему в ситуации А я думаю Б, а в ситуации Д я думаю С? А откуда я это знаю? Нет ли тут противоречий, беспристрастен ли я в своих выводах?
Он может выявить противоречия и попытаться их устранить. Привести свои взгляды к общему знаменателю, убрать логические противоречия в картине мира, консолидировать модель мира. Для этого есть две операции:
-
Убрать компоненту личного восприятия, записанную в памяти, из итогового рассуждения. «Я люблю демократов → то, что делают демократы, несёт позитивную оценку». Однако по факту позитивной оценки в моих логических рассуждениях быть не должно, какие-либо оценки должны даваться аргументам и следствиям, а не репутации автора, которая может быть лишь изначальным критерием для быстрой оценки не задумываясь. Демократы тоже могут делать плохие вещи, которые должны получать свои негативные оценки без когнитивного искажения за счёт личной предрасположенности у ним.
-
Консолидировать фрагментарную модель мира. Так может оказаться, что в процессе познания были созданы фрагменты доменов с одинаковой топологией. Задача найти такие топологии и усилить их связь с общей топологией мета-модели (модели мета концепций), консолидировать топологии доменов с ней. При обнаружении неустранимых противоречий, где доменные топологии действительно расходятся ввиду фактических различий между сущностями, система должна:
- и/или динамически создавать новый (суб)домен или усилить расхождение связав его с причиной расхождения (или отдельный домен), фиксирующий уникальные топологические паттерны;
- и/или скорректировать мета-домен, расширяя его концептуальное пространство для учёта выявленных расхождений и сохранения общих инвариантов.
Таким образом достигается адаптивная иерархия знаний: домены специализируются при необходимости, а мета-уровень эволюционирует, сохраняя согласованность всей системы представлений.
Предложена концептуальная схема автоматического нативного построения модели мира AI-системой, которая по сути своей любопытна, строит гипотезы на основе известного проверяет их, запоминает результаты проверки и использует их далее, не требует сотен тысяч примеров для изучения нового.
Как это реализовать на практике? Я убеждён, что у нас уже есть все необходимые вычислительные мощности и почти все архитектурные приёмы для создания такой системы, весь вопрос лишь в том, как правильно их скомбинировать.
[1] Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention Is All You Need. arXiv preprint arXiv:1706.03762. https://arxiv.org/abs/1706.03762
[2] Dai, D., et al. (2024). DeepSeekMoE: Towards Ultimate Expert Specialization in Mixture-of-Experts Language Models. arXiv preprint arXiv:2401.06066. https://arxiv.org/abs/2401.06066
[3] Sasaki, M., Takeda, K., Abe, K., & Oizumi, M. (2025). Unsupervised alignment in neuroscience: Introducing a toolbox for Gromov-Wasserstein optimal transport. Journal of Neuroscience Methods, 419, 110443. https://doi.org/10.1016/j.jneumeth.2025.110443
[4] Jolicoeur-Martineau, A., et al. (2025). Less is More: Recursive Reasoning with Tiny Networks. arXiv preprint arXiv:2510.04871. https://arxiv.org/abs/2510.04871
[5] Kawakita, G., Zeleznikow-Johnston, A., Takeda, K., Tsuchiya, N., & Oizumi, M. (2024). Is my "red" your "red"?: Evaluating structural correspondences between color similarity judgments using unsupervised alignment. Scientific Reports, 14(1), 15917. https://doi.org/10.1038/s41598-024-65604-1