ScienCentral News
 
environment general science May 12, 2003 

is a production of
ScienCentral, Inc.
Making Sense of Science

Interes Tambien en Espanol
Relojes del siglo XXI

El renacimiento del tren

El futuro de los vuelos ultrarápidos

Vuelos más seguros

Ojos Privados en el cielo

En busca de la nariz artificial

Para mirarte mejor

Videojuegos violentos

Láser Dental

Islas de calor

Virus en teléfonos celulares

Visión nocturna

La recuperación de las cajas negras

¿Más rápido, mejor y más barato?

Cirujano virtual

El ratón a punto de jubilarse
August 08, 2000

Si usted está harto de usar teclados y ratones, todavía puede abrigar esperanzas de que las computadoras cambien.

Un grupo de investigación que trabaja en el Center for Advanced Information Processing (CAIP) de la Universidad de Rutgers, está desarrollando un conjunto de dispositivos para manejar la información de la computadora más fácilmente que con el mouse y el teclado.

Una computadora con tres sentidos

El sistema, llamado Iniciativa Techológica deAvanzada de Voz, Texto, Imágen, y Multimedia—STIMULATE, según las siglas del inglés— tiene como propósito incorporar sentidos a las computadoras. "El ratón y el teclado nos lleva a interactuar con la computadora en forma un poco rígida y distinta a como interactuamos con los seres humanos", señaló Ed DeVinney, director asociado de CAIP. "Como personas, nos comunicamos por medio de señales visuales, sonidos y tacto, y eso es lo que queremos emular en las interfaces con las computadoras".

El sistema se basa en un conjunto de dispositivos llamados Multi-modal Input Manager (MIM). Mediante un guante, el usuario señala y manipula objetos sobre la computadora. Un sistema de rayos infrarojos rastrea la posición de los ojos del usuario, de modo que la persona puede manipular el cursor de la pantalla mientras realiza cualquier otra cosa con las manos. El sistema MIM responde, además, a los comandos vocales que se dictan a través de un micrófono que dicrimina entre la voz del usuario y los ruidos del ambiente.

A partir de los tres "sentidos", un software especial interpreta y combina la información que llega a la computadora. Esta es la parte más novedosa de la tecnología, dice DeVinney. "Una de las claves del desarrollo del sistema fue inventar un administrador capaz de captar las tres modalidades y realizar algo sensible, es decir, implementar la intención del usuario", explicó.

Una computadora sensible al tacto

Después de una sesión de diez minutos de calibración, el usuario puede seleccionar objetos en la pantalla con sólo mirarlos y a partir de ahí, comunicarle a la computadora lo que quiere hacer usando comandos vocales. Esta interface multimodal permitirá al usuario desarrollar tareas no convencionales en la computadora. After a 10-minute calibration session, the user can select objects on the screen just by looking at them and then tell the computer what to do using voice commands. This multi-modal interface should allow a user to perform unconventional tasks on the computer. Una de las aplicaciones que DeVinney ve para esta clase de sensores es la telemedicina. "Un médico con su paciente en la sala de operaciones, podrá tener las manos ocupadas pero al mismo tiempo será capaz de mirar el monitor de la computadora e indicar un sitio de su interés en el cuerpo del paciente, pidiéndole a la computadora, por ejemplo, ’diagnóstico’", continuó.

El sistema puede servir también para terapia física. Un ejemplo que ya está en uso es el simulador de vuelo que es controlado por un aparato que se coloca en el toblillo del usuario. It can also be used for something like physical therapy. One example already in use is a flight simulator game that is controlled by an apparatus around the user’s ankle. Por medio de una señal, el aparato aplica distintos nieveles de fuerza que el usuario deberá contrarrestar mientras navega en el aeroplano ficticio.

Si el uso de las manos se hace necesario, entonces hay que recurrir al guante que permite manipular objetos en la pantalla. El guante es capaz de comprender los gestos mediante un sensor que determina la posición relativa de las puntas de los dedos con respecto a la palma de la mano. El guante, no sólo permite al usuario señalar objetos y agarrarlos para moverlos por la pantalla, sino que devuelve información de la computadora, dándole al usuario una idea bastante aproximada de cómo se siente el objeto al tacto.

Los investigadores apuestan a desarrollar computadoras que se acerquen cada vez más al tipo de comunicación que existe entre dos personas. "Buscamos crear aplicaciones que permitan a distinas personas, quizás en distinas partes del mundo, llevar a cabo tareas en común", finalizó DeVinney.

¿Cuándo estarán listas las computadoras sensibles?

Según el grupo de investigadores de Rutgers, el sistema STIMULATE está aún en su fase de prototipo, pero su funcionamiento fue evaluado en una situación real por la Guardia nacional de New Jersey. Los militares, que junto con la National Science Foundation están ayudando a financiar el proyecto, esperan que el sistema mejore las comunicaciones entre oficiales y sus subordinados, especialmente en lo que respecta a complejas maniobras logísticas de las fuerzas armadas. El ejército de la Guardia Nacional de Fort Dix, en New Jersey, utilizó el sistema para maniuplar estructuras, personal y equipamiento en mapas de dos y tres dimensiones durante una simulación de rescate en una situación de desastre. Este tipo de datos son difíciles de manipular usando un teclado y un mouse, dicen los investigadores, por lo que todavía los militares se basan en el lápiz y el papel para realizar sus trazados logísticos.

La comunicación entre computadoras también podrá servir a personas con necesidades especiales. Además, se espera que a medida que disminuyan las barreras entre el usuario y la máquina, el tiempo de entrenamiento para aprender a usar el nuevo sistema también se va a reducir.

"La productividad de las computadoras está en aumento porque cada vez son más fáciles de usar y es más la gente que las emplea a diario", dice DeVinney. "Nuestro objetivo es dar un paso más y permitirle a la gente que con sólo mirar la computadora, ésta reaccione frente a una orden".

Otros sitios de interés:

Carnegie Melon University’s Interactive Systems Lab
(en inglés) Laboratorio de sistemas interactivos de la Universidad Carnegie Mellon

Oregon Graduate Institute’s Center for Human-Computer Communication
(en inglés) Centro de comunicaciones entre la computadora y el hombre

University of Maryland Human Computer Interaction Lab
(en inglés) Laboratorio de Interacción entre la computadora y el hombre de la Universidad de Maryland

Human-Computer Interaction Lab at Virginia Tech
(en inglés)
Laboratorio de Interacción entre la computadora y el hombre de Virginia Tech

Journal of Human-Computer Interaction
(en inglés)
Periódico informativo sobre el tema de la interacción entre la computadora y el hombre

por Tom Clarke



Traducción Laura Rozenberg


Qué Buscar Conectarse Ayuda Envíe sus comentarios
ScienCentral News es una coproducción de ScienCentral, Inc.
y Center for Science and the Media
248 West 35th St., 17th Fl., NY, NY 10001 USA (212) 244-9577.
El contenido de este website tiene copyright © ScienCentral, 2000-2003.
Todos los derechos reservados.