Skip to content

grisuno/TopoGPT2

 
 

TopoGPT-2: Topological Phase Transitions in Language Modeling

DOI License: AGPL v3

TopoGPT-2 es un modelo de lenguaje de 25M de parámetros que implementa el marco Grokkit HPU-Core para estudiar la adquisición del lenguaje como un fenómeno de materia condensada. A diferencia de las arquitecturas tradicionales, este modelo está optimizado para alcanzar el estado de Aislante Topológico, donde las invariantes gramaticales y narrativas están protegidas por una brecha espectral (spectral gap).

Core Concept: Grokking as Crystallization

Este proyecto cree en la premisa de que el "grokking" no es un artefacto estadístico, sino una cristalización de operadores. En lugar de memorizar un corpus, TopoGPT-2 mapea las reglas sintácticas del dataset Tiny Stories en un manifold geométrico, permitiendo una coherencia estructural superior con un número mínimo de parámetros.

Key Metrics & Instrumentation

El entrenamiento se monitoriza mediante variables de estado físico:

  • $\alpha$ (Purity Index): Grado de orden cristalino en los pesos.
  • $\delta$ (Discretization Margin): Nivel de solidificación de la fase funcional.
  • $\kappa$ (Gradient Covariance): Medida de la coherencia macroscópica del flujo de gradiente.
  • $\hbar = 0.012$: Constante de Incertidumbre del Aprendizaje que define el límite de optimización.

Live Status (Epoch 4 Snapshot)

Metric Value Status
Phase State [TOPOLOGICAL_INSULATOR] Stable
Val Loss 1.7773 Best achieved
Winding Number 138 Strong Convergence
Berry Phase 865.51 High Geometric Curvature
$T_{eff}$ 14.6 Cooling in progress

Zero-Shot Structural Transfer

Gracias al Teorema de Invarianza Topológica, este "setup" permite:

  1. Escalamiento Zero-Shot: Expandir el espacio de pesos (ej. de 25M a 250M) sin pérdida de información, preservando el message passing original.
  2. Fusión de Nodos: Superposición de modelos mediante interferencia constructiva de sus Hamiltonianos.
  3. Resistencia al Olvido Catastrófico: Protección de los "chunks" aprendidos mediante el aumento del radio del Toro topológico.

Reproducibility

# Clonar el framework
git clone [https://github.com/grisuno/TopoGPT2.git](https://github.com/grisuno/TopoGPT2.git)

# Ejecutar entrenamiento con monitoreo espectral
python app.py --epochs 10 --prospect --probe-seeds 50 
@software{grisun0_grokkit_2026,
  author = {grisun0},
  title = {Grokkit: A Geometric Framework for Zero-Shot Structural Transfer of Spectral Operators},
  year = {2026},
  doi = {10.5281/zenodo.18072859},
  url = {[https://doi.org/10.5281/zenodo.18072859](https://doi.org/10.5281/zenodo.18072859)}
}

Safetensors:

https://huggingface.co/grisun0/TopoGPT2/blob/main/model.safetensors

Python Shell Script Flask License: AGPL v3

ko-fi

About

A 25M-parameter Transformer implementation designed to study language acquisition as a condensed matter phenomenon. Unlike traditional LLMs, TopoGPT-2 is engineered to reach a Topological Insulator state a phase where grammatical and logical invariants are protected by a spectral gap. Using the Tiny Stories corpus

Topics

Resources

License

Code of conduct

Contributing

Security policy

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors

Languages

  • Python 100.0%