miércoles, 27 de enero de 2016

Auriculares

Los auriculares (también conocidos como audífonos o cascos) son transductores que reciben una señal eléctrica originada desde una fuente electrónica (como, por ejemplo, una radio, sinto amplificador o reproductor de audio) que por su diseño permiten colocar cerca de los oídos unos altavoces para generar ondas sonoras audibles.

Los auriculares son normalmente desmontables e intercambiables, es decir, que pueden enchufarse o desenchufarse con facilidad del equipo que los requiere. Los mismos auriculares pueden ser usados por diversos sistemas de audio.

Un tanto de historia...

Los auriculares empezaron a usarse a partir de la telefonía y la radio. Las señales eléctricas débiles de los tempranos instrumentos eléctricos (todavía no electrónicos) requerían una amplificación personalizada para el ámbito de la telefonía.A la empresa Beyerdynamic se le atribuye oficialmente el invento, a finales de los años 1930, y como la primera empresa en vender auriculares al público en general: modelo DT48 en 1937.
Su empleo se masificó a partir del surgimiento de los sistemas de audio personales: radios portátiles y reproductores portátiles de casete; posteriormente el fenómeno se acrecentó con el uso del reproductor de CD, el reproductor de audio digital y la computadora personal.
Con el avance de la electrónica se han incorporando el receptor de radio AM/FM y han adquirido otras capacidades, como la comunicación inalámbrica (por medio de infrarrojos, Bluetooth
, o Wi-Fi) para recibir señales de una unidad base.

Impresora


La impresora es uno de los periféricos que pueden conectarse a la PC o a la Notebook y a través del cual se puede obtener una copia, o varias, de aquellos documentos almacenados en el equipo, ya sea textos o imágenes, dado que la misma los imprime en papel o en transparencias empleando cartuchos de tinta o tecnología láser.


Una impresora está conectada mediante un cable, como periférico a un ordenador de manera permanente, sin embargo, también, una impresora, a través de un interfaz de red interno, Ethernet o Wireless, la llamada impresora de red, permitirá que cualquier usuario que integre la red pueda imprimir cualquier documento de su ordenador aunque la impresora no esté conectada directamente a su ordenador. Esta situación resulta ser frecuente de observar en oficinas, en las cuales es recurrente la constante necesidad de impresión de documentos y entonces, para abaratar costos y porque no también reducir la cantidad de periféricos si es que no abundan los espacios, este tipo de solución es la ideal.


En la actualidad y como consecuencia de los increíbles avances que ha habido en materia de informática, es posible encontrarse con impresoras que además de imprimir documentos permitan conectar a ella diferentes aparatos electrónicos multimedia, tales como Pendrives, Compact Flash, cámaras digitales, escáneres, entre otros. Incluso, hay algunas impresoras que además de su tradicional función de impresión, ofrecen otras funciones como la de escáner y fax, convirtiéndose casi, casi en una máquina fotocopiadora.

Evolución

Las primeras impresoras nacieron muchos años antes que el PC e incluso antes que los monitores, siendo durante años el método más usual para presentar los resultados de los cálculos en aquellos primitivos ordenadores, todo un avance respecto a las tarjetas y cintas perforadas que se usaban hasta entonces. Aunque en nada se parecen las modernas impresoras a sus antepasadas de aquellos tiempos, no hay duda de que igual que hubo impresoras antes que PCs, las habrá después de éstos, aunque se basen en tecnologías que aún no han sido siquiera inventadas. Resulta muy improbable que los seres humanos abandonemos totalmente el papel por una fría pantalla de ordenador.

A pesar de lo que podamos pensar, las impresoras son un invento reciente si tenemos en cuenta la aparición de la imprenta en 1440. Los primeros modelos aparecen en la década de 1940, pero no es hasta 1976 cuando surge la primera impresora como la conocemos hoy.

IBM fue la primera empresa capaz de integrar la impresión en una sólo máquina con un tamaño compacto. Es en 1959 cuando lanza la impresora de líneas IBM 1403. Era capaz de imprimir 600 líneas de texto por minuto a través de un sistema de cinta que se enrollaba y desenrollaba constantemente mientras era golpeada por un conjunto de martillos que marcaban los caracteres durante la impresión.

Al contrario de lo que podría parecer, las impresoras láser llegaron unos años antes que las de cartuchos de inyección de tinta. La primera impresora láser fue desarrollada por Xerox Parc desde 1969 y el proyecto finalizó con su lanzamiento en noviembre de 1971. EARS fue el nombre de la primera impresora láser de la historia.

En este ámbito, no podía faltar la compañía de Hewlett-Packard, más conocida como HP. Pionera en muchos productos tecnológicos, en 1976 creó la primera impresora de inyección de tinta. Es decir, la primera que precisaba de cartuchos de tinta. No llegó a los hogares hasta 1988 y el primer modelo apenas ofrecía una velocidad de impresión de 2 páginas por minuto.

El último gran hito importante lo protagonizó Apple en 1984 con una impresora capaz de reproducir tanto texto como imágenes hasta una resolución de 144 DPI. La imageWriter fue pensada para utilizar con el Apple II y el sistema consistía en un cabezal que se movía en ambas direcciones para imprimir texto y en una sola dirección en el caso de las imágenes.

Desde entonces, las impresoras han ido evolucionando hacia modelos más eficientes y sistemas que optimizan el uso de cartuchos de tinta y tóner. Además, el presente y futuro de la impresión se encamina hacia la multifunción y la impresión desde dispositivos móviles.
 

Monitor


Dispositivo de salida más común de las computadoras con el que los usuarios ven la información en pantalla. Recibe también los nombres de CRT, pantalla o terminal. En computación se distingue entre el monitor, que incluye todo el aparato que produce las imágenes, y la pantalla, que es sólo el área donde vemos las imágenes. Así, el dispositivo de salida es todo el monitor, no solamente la pantalla. Toda la información (letras, gráficas y colores) de una pantalla está formada por pequeños puntos llamados pixels (PICture Elements). La unidad del sistema manda la información al monitor acerca de los pixels que deben estar apagados(color negro) y los que deben de estar prendidos (iluminados) con un determinado color o intensidad. Así, punto por punto, se van formando las letras y las áreas iluminadas de una imagen.

Los primeros monitores de computadoras eran monocromáticos, es decir, desplegaban un solo color, generalmente verde o amarillo. Además, las imágenes tenían muy poca resolución, ya que cada píxel era muy grande. Actualmente estos monitores se pueden ver en algunas terminales de aeropuertos. Los monitores más recientes no tienen problema en presentar gráficas, líneas y áreas de colores, además de letras de diferentes tipos y tamaños. Por esto también se les conoce como monitores gráficos.

La manera como el monitor genera la imagen en pantalla es similar a la que utiliza el sistema de televisión. El tubo que forma la pantalla está compuesto por una caja de plástico y en su interior posee todos los circuitos electrónicos.


Evolución


En realidad nadie inventó el "monitor" propiamente dicho, a lo largo de la historia de la informática se han ido utilizando diferentes tecnologías electrónicas como monitores. Por ejemplo, las primeras computadoras utilizaban pequeñas luces que se encendían y se apagaban, estas actuaban de "monitor" para los operadores. Una luz apagada o encendida informaba el estado de un registro de bit particular dentro de la computadora. Esto permitía monitorear el estado interno de la máquina (de allí el nombre "monitor"). De todas maneras el principal dispositivo de salida de estas computadoras solía ser una primitiva impresora.

  • Tecnología de tubos de rayos catódicos (CRT)


La tecnología de tubo de rayos catódicos (CRT) se inventó en 1897 (Ferdinand Braun, científico alemán), los primeros en usar un tubo de rayos catódicos (con un cátodo caliente) fueron John B. Johnson y Harry Weiner Weinhart de Western Electric, comercializándose en 1922. El primer televisor comercial usando tecnología CRT fue desarrollado por Telefunken en Alemania en el año 1934.



La tecnología CRT fue reemplazando a las bombillas de luz dado que permitía mostrar el equivalente a decenas de luces con mayor fiabilidad.

Aún así, en los 60 la forma de interacción más común era el teletipo, una especie de máquina de escribir que imprimía la información que procesaba el ordenador; y también podríamos decir que actuaba como "monitor" del mismo.

A finales de los 60 la tecnología CRT se utilizó en los llamados VDT (video display terminal o terminal de pantalla de video), que integraban el teclado y otros componentes del sistema en un único chásis. La pantalla era monocromático y de baja resolución, por lo que necesitaba de un texto grande para distinguirse. De todas maneras una tecnología de mejor resolución ya existía en ese entonces, pero sólo para ser usada en la industria y en el área militar, era muy costosa.

  • Monitores CRT

Recién en los 70 se podría decir que aparecieron los primeros monitores CRT que podríamos comparar con los monitores actuales y eran accesibles. Por ejemplo en las computadoras TRS-80 y Commodore PET. Obviamente eran monócromos (un solo color). La computadora Apple II, del año 1977 y la gráficamente sofisticada Atari 800, del año 1979, introdujeron el color. Podían conectarse a un televisor color a través de la antena o usar un monitor CRT.

En 1981 IBM desarrolla el adaptador CGA que permitía color, siendo la primera tarjeta gráfica para IBM PC (resolución de 320 x 200 en colores, o 640 x 200 para dos colores). También se convirtió en el primer estándar para pantallas de computadoras. Era caro en su entonces por lo que la gente prefería aún la pantalla monócroma.
Luego en 1984 surge el monitor EGA (Enhanced Graphics Adapter - adaptador de gráficos mejorados), también de IBM. Este monitor aceptaba más de 16 colores y mejor resolución (640 x 350).

En 1987 surge el VGA (Video Graphics Array - Matriz gráfica de video) y luego mejorado con el SVGA (Super VGA), ambos muy populares.

  • Monitores actuales: tecnología LCD y OLED


En los 90 surgen los LCD (pantalla de cristal líquido) especialmente usadas en notebooks por su bajo consumo energético, bajo peso y menor tamaño. La mejora TFT-LCD es la variante del LCD que se utiliza actualmente en computadoras.

Actualmente también se comercializa la tecnología OLED, probable reemplazante de los LCD.
Es muy común encontrar hoy en día los monitores táctiles, una tecnología que viene desarrollándose desde 1965.

Dispositivo de entrada de voz


Los dispositivos de entrada de voz convierten el habla de una persona en código digital. Con el software de reconocimiento de voz, los dispositivos de entrada permiten a los usuarios operar microcomputadoras y crear documentos empleando comandos de voz. Tradicionalmente el software de reconocimiento de voz ha sido costoso y difícil de desarrollar y de usar, pero en la actualidad es posible disponer de versiones comerciales asequibles y funcionales. Algunos de estos sistemas deben ser preparados para adaptarse a una voz particular de usuario. Esto se logra, haciendo coincidir palabras habladas con patrones previamente almacenados en la computadora. Se han desarrollado sistemas avanzados, capaces de reconocer la misma palabra aunque sea dicha por personas diferentes. Sin embargo, hasta ahora la lista de palabras sigue siendo limitada para usos prácticos. Se trabaja incluso en sistema que traducirán de un idioma a otro.

WebCam

Cámara Web
Una webcam o cámara web suelen ser los dos términos, en inglés y en español,utilizados para definir a cualquier cámara que genera imágenes a las que se puede acceder a través de un servidor de Internet o enchufarse a una PC, generalmente a través de un puerto USB.

Esencialmente, una cámara web es una cámara que se encuentra conectada a una computadora, ya sea directamente o de manera inalámbrica,y nos permite captar imágenes que hacen posible la visualización remota.

Origen y Evolución

La webcam se originó en 1991 en el laboratorio de computación de la Universidad de Cambridge, Inglaterra, y no estaba conectada a Internet. La historia de su origen era simple: para que los empleados internos no fueran a buscar una taza de café cuando el mismo no había sido acabado, fue colocada una cámara para grabar el contenido, mostrando en todos los ordenadores si había café disponible o no. Las primeras webcams fueron comercializadas en 1994, cuando Connectix lanzó su QuickCam. Mientras, las mismas tenían una resolución bastante pequeña y una velocidad de transmisión deficiente en comparación con las modernas. Además de eso, las imagenes quedaban en blanco y negro. 
Su popularidad creció cuando empezó a utilizarse por software de mensajería instantánea como MSN Messenger, Yahoo! Messenger y Skype. Las imagenes requerían de poco espacio de almacenamiento y podían ser rápidamente difundidas por una Internet de baja velocidad. En la actualidad, muchos ordenadores, especialmente laptops y notebooks, vienen con webcam incorporada.

Escáner (Scanner)

Es una unidad de ingreso de información. Permite la introducción de imágenes gráficas al computador mediante un sistema de matrices de puntos, como resultado de un barrido óptico del documento. La información se almacena en archivos en forma de mapas de bits (bit maps), o en otros formatos más eficientes como JPEG o GIF. Existen scanners que codifican la información gráfica en blanco y negro, y a colores. Así mismo existen scanners de plataforma plana fija(cama plana) con apariencia muy similar a una fotocopiadora, y scanners de barrido manual. Los scanners de cama plana pueden verificar una página entera a la vez, mientras que los portátiles solo pueden revisar franjas de alrededor de 4 pulgadas. Reconocen imágenes, textos y códigos de barras, convirtiéndolos en código digital (ASCII o EBCDIC).


Algo de Historia

El escáner nace en 1984 cuando Microtek crea el MS-200, el primer escáner blanco y negro que tenía una resolución de 200dpi. Este escáner fue desarrollado para Apple Macintosh. Luego en el año 1985 se lograr mejorar la resolución del escáner hasta 300dpi y ya en 1988 se logran resoluciones de 600 dpi. En el año 1989 aparece el primer escáner a color de 24 bit y una resolución de 300dpi. Luego la evolución de los escáners prosigue y en el año 1991 se desarrolla el primer escáner para negativos de foto de 35mm. En el año 1994 se crea el escáner que logra obtener una resolución de 600dpi con 32 bit de colores.

Funcionalidad

Como es un instrumento capaz de llevar un contenido escrito o una figuara a un formato en el que se pueda almacenar y transformar en la computadora por medio de programas de dibujo o de retoque de fotografías como Photoshop, Photopaint, no puede faltar en la confección de libros, revistas y periódicos, en el diseño gráfico o industrial. Es una herramienta importantísima en la medicina ya que permite obtener diferentes imágenes de una misma región corporal mediante rayos X, ultrasonido o resonancia magnética; en las investigaciones científicas, el comercio, en las aduanas, en la búsqueda de minerales, entre otras utilidades.

Mouse o Ratón


Es un dispositivo electrónico que nos permite dar instrucciones a nuestra computadora a través de un cursor que aparece en la pantalla y haciendo clic para que se lleve a cabo una acción determinada. A medida que el mouse rueda sobre el escritorio, en correspondencia, el cursor (puntero) en la pantalla hace lo mismo. Tal procedimiento permitirá controlar, apuntar, sostener y manipular varios objetos gráficos(y de texto) en un programa. 

Un mouse regularmente es arrastrado sobre una superficie plana (escritorio o mesa) el movimiento realizado por el mouse es reflejada dentro del monitor mediante una flecha llamada puntero del mouse. La acción de pulsar y soltar un botón se denomina clic.


Para proyectar el movimiento del mouse sobre el monitor, el mouse debe realizar dos funciones:
  • En primer lugar debe generar, por cada fracción de milímetro que se mueve, uno o más pulsos eléctricos (CONVERSION ANALOGICA-DIGITAL).
  • En segundo lugar contar dichos pulsos y enviar hacia la interfaz “port serie”, a la cual está conectado el valor de la cuenta, junto con la información acerca de sí se pulsa alguna de sus tres teclas ubicada en su parte superior.

Funcionamiento

Su funcionamiento principal depende de la tecnología que utilice para capturar el movimiento al ser desplazado sobre una superficie plana o alfombrilla especial para ratón, y transmitir esta información para mover una flecha o puntero sobre el monitor de la computadora. Dependiendo de las tecnologías empleadas en el sensor del movimiento o por su mecanismo y del método de comunicación entre éste y la computadora, existen multitud de tipos o familias.
El objetivo principal o más habitual es seleccionar distintas opciones que pueden aparecer en la pantalla, con uno o dos clic, pulsaciones, en algún botón o botones. Para su manejo el usuario debe acostumbrarse tanto a desplazar el puntero como a pulsar con uno o dos clic para la mayoría de las tareas.

¡Conociendo su historia!

Fue diseñado por Douglas Engelbart y Bill English durante los años 60 en el Stanford Research Institute, un laboratorio de la Universidad de Stanford, a poca distancia de Silicon Valley en California. Más tarde fue mejorado en los laboratorios de Palo Alto de la compañía Xerox (conocidos como Xerox PARC). Su invención no fue un hecho banal ni fortuito, sino que surgió dentro de un proyecto importante que buscaba aumentar el intelecto humano mejorando la comunicación entre el hombre y la máquina. Con su aparición, logró también dar el paso definitivo a la aparición de los primeros entornos o interfaces gráficas de usuario.