Microchip

Fiabilidad

¿Qué significa microchip?

Un microchip es un pequeño módulo semiconductor de circuitos informáticos empaquetados que desempeña una función específica en relación con otros microchips de un sistema de hardware informático. También se refiere a la pequeña oblea de material semiconductor utilizada para fabricar un circuito integrado (CI).

Un microchip también se conoce como circuito integrado (CI).

Definición de microchip

Los microchips se utilizan en todos los dispositivos electrónicos, desde pequeñas unidades flash hasta complejos ordenadores e incluso algunos vehículos motorizados.

Tras la invención del transistor, la tecnología posterior permitió reducir drásticamente su tamaño y crear circuitos complejos que pueden colocarse en un pequeño trozo de material semiconductor, normalmente silicio, conocido como chip. Esto dista mucho de los antiguos tubos de vacío que caracterizaban los primeros circuitos electrónicos.

En 1949, comenzaron las primeras menciones al desarrollo de la tecnología de microchips cuando Werner Jacobi, un ingeniero alemán de Siemens AG, presentó una patente para un dispositivo de amplificación similar a un circuito integrado. Afirmaba que este dispositivo podía utilizarse para crear audífonos.

Temas relacionados

Margaret Rouse
Technology Expert
Margaret Rouse
Experta en tecnología

Margaret Rouse es una galardonada escritora técnica y profesora conocida por su habilidad para explicar temas técnicos complejos a una audiencia de negocios no técnica. Durante los últimos veinte años, sus explicaciones han aparecido en sitios web de TechTarget y ha sido citada como autoridad en artículos del New York Times, Time Magazine, USA Today, ZDNet, PC Magazine y Discovery Magazine. La idea de diversión de Margaret es ayudar a profesionales de TI y negocios a aprender a hablar los idiomas altamente especializados de cada uno. Si tienes una sugerencia para una nueva definición o cómo mejorar una explicación técnica,…