¿Qué significa decimal?
En el contexto de la informática, decimal se refiere al sistema de numeración de base 10. Es la forma en que los humanos leemos los números. Es la forma en que los humanos leen los números. En general, decimal puede ser cualquier cosa que se base en el número 10. Comprender la relación entre decimal, binario, octal y hexadecimal es esencial para quienes trabajan en el sector informático.
Otros términos para decimal son base-10 y denario.
Definición de decimal
En matemáticas, decimal puede referirse al sistema de numeración decimal, a la notación decimal o a cualquier número escrito en notación decimal. Los números decimales se escriben según su valor posicional. El número entero se escribe a la izquierda del punto decimal, y cualquier número fraccionario se escribe a la derecha (por ejemplo, 1,023).
El uso del decimal es tan antiguo como la historia de la humanidad. El uso común del decimal puede deberse a los diez dedos de los humanos (que también podrían llamarse bicuinarios, ya que hay cinco dedos en cada mano). El decimal se utilizaba en calculadoras antiguas como el cálculo chino de varillas y el ábaco. El matemático griego Arquímedes utilizó potencias de 108 (10.000 × 10.000, o “una miríada de miríadas”) para calcular el tamaño del universo.
Base-10 utiliza los numerales 0-1-2-3-4-5-6-7-8-9, a diferencia del 0-1 utilizado en binario. Los ordenadores modernos cuentan en binario, pero también ha habido ordenadores decimales. La Máquina Analítica de Charles Babbage se diseñó utilizando el decimal. Otros primeros ordenadores como el ENIAC y el IBM 650 utilizaban internamente base-10.