El cero es el signo numérico de valor nulo, el número de la nada. Pero no siempre fue un número. Fue mucho menos que eso hasta hace relativamente muy poco. De hecho, es una de las representaciones numéricas que mas tardaron en aparecer en la historia de la humanidad.
El cero realiza dos funciones principales: primero, hace de marcador de posición en nuestro sistema de numeración posicional. Nos permite crear números grandes, si está situado a la derecha de un número entero, decuplica (multiplica por 10) su valor. Y segundo, también funciona como un número común más por lo que se pueden hacer operaciones con él.
Las matemáticas modernas no podrían funcionar sin el cero. Está presente en todos los conceptos matemáticos que hacen que nuestro sistema numérico, la geometría y el álgebra funcionen. Sin embargo, durante mucho tiempo no existió como lo conocemos. Surgió hace unos 1.500 años, lo cual es muy poco tiempo comparado con los demás dígitos.
Varias antiguas civilizaciones, como las del Antiguo Egipto, Babilonia, la Antigua Grecia o la civilización maya, poseen documentos de carácter matemático o astronómico mostrando símbolos indicativos del valor cero, pero sin posibilidades operativas. Parece una tontería, pero no lograron dar un uso a “la nada”. Esto podría ser porque en un principio la escritura de los números tenia el objetivo de contar los objetos de la realidad, y si no había objetos no necesitaban una representación para contar. Se planteaba la necesidad de dividir, sumar y restar, pero siempre conjuntos que no fueran vacíos. Puesto así, el cero parecía inútil.
Por ejemplo, los babilonios, que calculaban con dos símbolos en diferentes posiciones, ostentan el cero más antiguo de la humanidad, y tenían cuatro representaciones distintas para él, pero con ninguna podían hacer cálculos.
Los griegos y mayas, también tenían su propio concepto de cero. El de los mayas es, además, el primer uso documentado del cero en América. “El símbolo del cero era representado por un caracol (concha o semilla), una media cruz de Malta, una mano bajo una espiral o una cara cubierta por una mano”.
Pero no fue hasta el sistema de numeración indio que se define explícitamente el cero. Por esto se considera a la civilización hindú la cuna de la notación posicional, es decir, del cero evolucionado que usamos hoy en día, con el que se puede hacer operaciones.
Los calculistas hindúes lo definieron como el resultado de sustraer cualquier número de sí mismo, y lo representaban con un punto, no con un círculo.
No puedes dividir un lápiz entre cero niños
Fue un matemático de la India en el siglo VI, Brahmagupta, el primero en teorizar sobre el concepto de cero. Y no sólo como definición de una cantidad nula, sino como posible sumando para números negativos y positivos. Entonces se encontró con el problema de las divisiones. La nada es indivisible.
En aquella época, donde la matemática se hacía de forma visual, con la cosa a calcular entre las manos, era fácil pensar erróneamente que un lápiz dividido entre ningún niño da un lápiz. Sigues teniendo un lápiz en las manos, al fin y al cabo. Brahmagupta también propuso que era infinito. Esto es razonable si piensas que al dividir cualquier número por uno pequeñísmo, próximo a cero, la solución es enorme. Este matemático hizo toda una obra respecto al cero en el año 628 con sus conclusiones, sorprendentemente en términos muy parecidos a los de la matemática moderna. Y gracias a esa obra, el sistema de numeración se expandió por todo el mundo árabe.
El resto es historia “reciente”. El concepto se expandió primero a China y los árabes a causa del comercio frecuente con la India. En Europa encontró resistencia al principio, pues el Imperio Romano lo rechazó frontalmente porque contradecía su propio sistema, pero acabó siendo transmitido por el Magreb y Al-Ándalus.
Para la expansión por Europa, según cuenta a Gizmodo en Español Clara Grima, Premio COSCE a la Difusión de la Ciencia, “en la introducción del sistema de numeración, el italiano Leonardo Fibonacci fue clave ”. Leonardo aprendió el sistema de numeración de los árabes y las ventajas del mismo, y una vez de vuelta a Italia, lo tradujo en el tratado ‘Liber abacci’, que fue por primera vez publicado en 1202 y facilitó la expansión.
En cuanto a cómo pasó el cero de un punto u otros símbolos posibles al círculo que conocemos hoy, “el primero que usó el símbolo del ‘0' como lo conocemos fue él también, Leonardo de Pisa, Fibonacci. Eso es al menos lo que se acepta”.
Durante los siguientes 400 años las matemáticas avanzaron mucho. Pasando de aplicaciones prácticas, tipo sumar peras y manzanas, a funciones cada vez más complejas y abstractas, y ahí el cero se posicionó como la piedra angular del cálculo. También está presente en la ciencia, que no podría funcionar sin él (cero grados en la escala de temperatura, gravedad cero, energía cero, cero grados de longitud, etc. Incluso aparece en el lenguaje no científico: tolerancia cero, la hora cero). Por supuesto, tras el nacimiento de la informática, donde es prácticamente toda la base del sistema binario, cobró aún más relevancia, demostrando, por cierto, la importancia que puede tener la nada.
[Explicación extra del sistema numérico egipcio, babilónico, maya e indio].