La computación basada en gestos se ha vuelto más popular en los últimos años gracias a dispositivos como la Nintendo Wii, el iPhone y el iPad. Aunque su potencial total aún está varios años de distancia, especialmente en educación, su importancia está creciendo para una nueva generación acostumbrada a interactuar con la información a través de gestos. Varios proyectos de investigación están explorando aplicaciones educativas de la computación basada en gestos en arte, educación y música que podrían transformar la enseñanza y el aprendizaje.
2. Tiempo-Horizonte de implantación: de cuatro a cinco años
Gracias en parte a la Nintendo Wii, el iPhone de Apple y el iPad, muchas
personas ahora tienen algunos inmediata experiencia en informática basada
en gestos como un medio para interactuar con una computadora. La
proliferación de juegos y dispositivos que incorporan la interacción gestual
fácil e intuitiva, que seguirá, con lo que con ella una nueva era de diseño de
interfaz de usuario que se mueve más allá del teclado y el ratón. Mientras que
el total realización del potencial de la computación basada en gestos
permanece varios años de distancia, especialmente en la educación, su
importancia no puede subestimarse, especialmente para una nueva
generación de estudiantes acostumbrados a tocar, la grabación, el deslizar,
saltar y moverse como una forma de comprometerse con la información.
3. Información general
Es casi un lugar común decirlo, pero la primera exposición a la computación
basada en gestos para muchas personas puede se han producido más de
una década atrás, cuando vieron Tom Cruise en Minority Report aplastar la
información todo delante de él moviendo los brazos. El hecho de que Juan
Underkoffler, quien diseñó la película interfaz de ficción, presenta una versión
no-ficción de ella, llamado G-Speak, en una charla TED, en 2010,
oportunamente afirma la importancia cada vez mayor y la promesa de
informática basada en gestos. El G-Speak pistas de la mano movimientos y
permite a los usuarios manipular objetos en 3D en el espacio. Este
dispositivo, así como SixthSense, que fue desarrollado por Pranav Mistry,
mientras que en el MIT Media Lab y utiliza los marcadores visuales y el gesto
reconocimiento para permitir la interacción con el tiempo real información, ha
encendido la imaginación cultural con respecto a las implicaciones para la
computación basada en gestos. Esta imaginación se ve agravada por la
Kinect sistema de la Xbox, que continúa explorando la potencial del
movimiento humano en el juego. En resumen, informática basada en gestos
es pasar de ficción la fantasía a la experiencia vivida.
6. Las tecnologías para la entrada basada en gestos también continúan
para ampliar. Evoluce ha creado una pantalla táctil pantalla que responde a
los gestos, y el trabajo es en una manera de permitir que las personas
interactúan con Windows 7 a través del sistema de Kinect. Del mismo modo,
los estudiantes de el Media Lab del MIT han desarrollado DepthJS, que
une a los Kinect con la web, permitiendo a los usuarios interactuar con el
navegador web de Google Chrome a través de gestos. También en el MIT,
los investigadores están desarrollando económica interfaces basadas en
gestos que realizan un seguimiento de la toda la mano. Laboratorios elíptica
anunció recientemente un muelle que permitirá a los usuarios interactuar con
sus IPAD a través de gestos.
Otra dirección de centros de innovación tecnológica el tacto, lo que se refiere
a la retroalimentación táctil comunicado a un usuario. Investigadores de la
Universidad de McGill están desarrollando un sistema de retroalimentación
háptica, que permite las personas con impedimentos visuales para obtener
más comentarios con grados multa de tacto, y un investigador . Los medios
de comunicación Grupo de Computación en la Universidad RWTH de
Aquisgrán, Alemania, ha creado una activa localizada háptica interfaz de
comentarios llamado MudPad para las interfaces de contacto fluido que
promete ofrecer formas más matizada a interactuar con las pantallas a
través del tacto.
8. Otros investigadores están explorando formas de utilizar gestual computación
con dispositivos móviles. Momo GestureTek software, por ejemplo, utiliza dos
sensores diferentes para detectar el movimiento y la posición de los objetos, y
está diseñado para llevar la computación basada en gestos a los teléfonos.
IDENT Technology Cerca de Campo Eléctrico de detección Interfaces está
diseñado para permitir que los móviles para responder a la adherencia y la
proximidad que detecta. Una llamada móvil poner la llamada a través de si se
recoge y se mantiene, sino que enviarlo al correo de voz si se toma y
rápidamente puso de nuevo.
Mientras que la computación basada en gestos ha encontrado un natural
casa en el juego, así como en los archivos de la navegación, sus usos
potenciales son mucho más amplia. La capacidad de moverse a través de
visualizaciones en tres dimensiones podría prueba convincente y
productiva, por ejemplo, y computación basada en gestos es ideal para la
simulación
y la formación. Computación basada en gestos tiene fuertes potenciales
estudiantes en la educación, tanto para el aprendizaje, como será capaz de
interactuar con ideas e información en nuevas formas, y para la
enseñanza, como la facultad de explorar nuevas formas de comunicar ideas.
También tiene el potencial para transformar lo que entendemos es académico
métodos de intercambio de ideas.
9. Relevancia para la Enseñanza, Aprendizaje, la investigación o la
investigación creativa.
Computación basada en gestos ya ha demostrado productivas en las
simulaciones de entrenamiento que funcionan casi exactamente igual que
sus contrapartes del mundo real. Gestual interfaces pueden permitir a los
usuarios realizar fácilmente precisa manipulaciones que puede ser difícil con
un ratón, como la edición de vídeo del sistema de sabotaje deja en claro que
computación basada en gestos también abre posibilidades sin precedentes
de la accesibilidad, la interacción y la colaboración de los alumnos.
Mientras que una dirección para la computación basada en gestos intenta
recrear o mejorar existentes prácticas, una dirección más convincente para
computación basada en gesto en el contexto del aprendizaje se moverá más
allá de reproducir lo que ya se conoce con el fin de crear formas
completamente nuevas de interacción, expresión, y la actividad, junto con las
metáforas necesarias para hacerlos comprensibles.
10. Una muestra de aplicaciones computación basada en gestos en todas
las disciplinas incluye lo siguiente:
Arte. El GameTablet UDraw utiliza la Wii Controlador de combinar gestos
para la creación de dibujos y juegos, lo que indica las direcciones para el uso
de la tecnología basada en gestos para ampliar investigación creativa a
través de juegos y arte.
Educación. La agenda de investigación para los medios de comunicación,
el diseño del programa en el Art Center College de Diseño incluye
tecnologías educativas que utilizan computación basada en gestos, y los
estudiantes se enfocan en la creación de nuevas interfaces para el
aprendizaje.
Música. El proyecto EyeMusic en la Universidad de Oregón, utiliza
sensores de seguimiento de cara a componer producciones multimedia
basado en los movimientos de los ojos del usuario.
11. Computación basada en gestos, en práctica:
Los vínculos siguientes proporcionan ejemplos de cómo computación basada
en gestos se está utilizando en la educación superior ajustes.
3Gear Systems
Un par de estudiantes de postgrado del MIT han creado una interacción
basada en gestos sistema que utiliza de las cámaras de equipo útil y un par
de Lyvra guantes que costaría $ 1 para producir.
http://www.threegear.com/
13. EyeDraw
Este proyecto, desarrollado en la Universidad de Oregon, usa movimientos
oculares para crear dibujos en una pantalla de ordenador. Los sensores
pueden realizar un seguimiento movimiento de los ojos y dar a los usuarios un
control preciso sobre el imagen que componen.
http://www.cs.uoregon.edu/research/cm-hci/EyeDraw/
14. Morpholuminescence
Creado por estudiantes de la Universidad Ball State, esta proyecto utiliza los
gestos del cuerpo para ajustar la luz en una sala para lograr un resultado
óptimo de visión. Diseñado para uso en la industria de la moda, el sistema
ofrece una iluminación integrada y sistema de sensores, gran parte de se
construyó utilizando el código abierto Arduino prototipos plataforma.
http://www.i-m-a-d-e.org/morpholuminescence
16. MudPad
(Jansen Yvonne, RWTH Aachen Medios de Comunicación de la Universidad
Grupo de Computación, 2010.) Investigadores en el Grupo de Medios de
Informática en la RWTH Aachen. La Universidad está desarrollando una activa
localizada háptica interfaz de comentarios llamado MudPad para el líquido
interfaces de tacto con el fin de ofrecer más matizada formas de interactuar
con pantallas a través del tacto.
http://hci.rwth-aachen.de/mudpad