Historia de los monitores

 Historia de los monitores 

Los ordenadores iniciales se comunicaban con sus operadores a través de pequeñas luces que se encendían y apagaban al acceder a ciertas ubicaciones de la memoria o al ejecutar ciertas instrucciones.


Unos años más tarde, surgieron computadoras que utilizaban tarjetas perforadas y permitían ingresar trabajos en la computadora. En la década de 1950, la mejor manera de interactuar con una computadora era el teléfono, que se conectaba directamente a la computadora y transcribía toda la información en la voz de la computadora. Esta era la forma más barata de mostrar resultados hasta que aparecieron los primeros monitores CRT (tubo de rayos catódicos) en la década de 1970. Seguían el estándar MDA    (Monochrome Display Adapter) y tenían una cara monocromática (monocromática) de IBM.


Diseñado específicamente para la fuente y admite subrayado, negrita, cursiva, normal e invisibilidad.  Poco después de ese año, se introdujeron los monitores CGA (Color Graphics Adapter), que estuvieron disponibles en 1981 con la invención de la primera tarjeta gráfica basada en el estándar CGA. IBM. Dado que se lanzó al mismo tiempo que MDA, los usuarios de PC prefirieron comprar monitores  monocromáticos debido a preocupaciones de costos.

Tres
 años después, apareció el monitor EGA (Adaptador de gráficos avanzado). Después de que se creó el estándar de gráficos mejorados, IBM creó este monitor para mostrar gráficos que proporcionan más colores (16) y colores más altos. En 1987 surgió el estándar VGA (Video Graphics Array), un estándar  muy popular, dos años después fue desarrollado y rediseñado para solucionar los problemas que surgían y así surgió SVGA (Super VGA) con color mejorado y calidad de imagen. resolución. y las tarjetas    gráficas para este nuevo modelo son producidas hoy por empresas tan conocidas como NVIDIA y AMD. 

Comentarios

Entradas populares de este blog

Funcionamiento de un monitor

Monitores