Sei sulla pagina 1di 6

Avatares Conversacionales 3D en Tiempo Real para su Integraci on en Interfaces de Usuario y Entornos TV

Amalia Ortiz (1), Jorge Posada (1), Karmelo Vivanco (2), Miguel G. Tejedor (3), Eva Navas (4), Inma Hernaez (4) (1) Departamento de Edutainment y Turismo (VICOMTech) (2) Baleuko (3) Talape (4) Universidad del Pa s Vasco/Euskal Herriko Unibertsitatea (Grupo Aholab)
aortiz@vicomtech.es

Resumen
Las interfaces actuales no permiten al usuario interactuar con el sistema de una manera natural e intuitiva. Surge la necesidad de crear un nuevo lenguaje de comunicaci on hombre-m aquina. Para ello, se est an desarrollando las denominadas Interfaces Conversacionales de Usuario, que integran un asistente virtual 3D capaz de realizar funciones del sistema. En este articulo se presenta un proyecto industrial (*) basado en este tipo de interfaces, describiendo su modo de funcionamiento, la importancia de unir el uso de la s ntesis de voz a una representaci on gr aca tridimensional y las aplicaciones que puede tener. (*) Este trabajo ha sido parcialmente nanciado por el programa INTEK 2001 del Gobierno Vasco, c odigo CN01BA09.

actualmente encuentran importantes restricciones tecnol ogicas en el desarrollo de aplicaciones. Algunas de las caracter sticas que hay que tener en cuenta durante el desarrollo para su uso en aplicaciones multimedia son: peso poligonal bajo, capacidad emocional, exibilidad a la hora de ser integrado en otras plataformas (PCs, PDAs, TV Digital, etc.) y sobre todo, respuesta en tiempo real, ya que las animaciones pregrabadas no sirven si se desea una comunicaci on interactiva. En el apartado 2 se describe la importancia del uso de emociones y el empleo de lenguas minoritarias en las nuevas tecnolog as. A continuaci on, en el apartado 3, pasamos a explicar el proyecto en el que estamos trabajando (ABATEUS), con una descripci on del sistema desarrollado y sus funcionalidades. Por ltimo, en el apartado 4, se describen algunas de las posibles u aplicaciones que pueden tener este tipo de interfaces, tanto en general como para nuestro proyecto en concreto.

1. Introducci on
Recientemente la inuencia de los ordenadores ha crecido til y hasta el punto de convertirse en una herramienta muy u utilizada por la mayor a de las personas, no s olo en su trabajo, sino tambi en en su tiempo de ocio. Con este crecimiento, la tecnolog a ha ido tambi en evolucionando y es cada vez m as potente y novedosa, pero tambi en m as compleja y dif cil de entender para el usuario medio. Es as como surge la necesidad de realizar un cambio en los sistemas y m etodos de interacci on hombre-maquina[1]. Hoy en d a, la forma m as com un de realizar cualquier tarea en un ordenador personal esta basada en el paradigma WIMP (Windows, Iconos, Men us y Punteros). Sin embargo, este modo de actuaci on es insuciente para proporcionar al usuario una interfaz natural e interactiva, que le permita un uso eciente de las nuevas tecnolog as. La forma de comunicaci on natural entre humanos esta basada en el habla. Las innovadoras interfaces de usuario que actualmente est an siendo desarrolladas, incorporan m odulos de s ntesis y reconocimiento de voz. Una manera adicional de enriquecer estas nuevas interfaces es la integraci on en el sistema de un asistente virtual 3D, m as com unmente denominado avatar, con capacidad de habla en tiempo real. En estas nuevas interfaces, llamadas interfaces conversacionales de usuario, la gura del avatar juega un papel muy importante. Los avatares son personajes virtuales, representados por nicamente por la cabeza, que pueden el cuerpo entero o u simular aspectos de la comunicaci on humana (oral o no oral), y

Figura 1: Consola de ABATEUS. Cabeza de BetiZu

2. El proyecto ABATEUS
El objetivo global del proyecto ABATEUS es implementar una plataforma para el desarrollo de avatares parlantes en euskera,

Figura 2: Arquitectura del Sistema.

basados en los personajes animados de dos productoras de televisi on y explorar formas innovadoras de utilizarlos en aplicaciones multimedia y Televisi on Digital, as como en su entorno de producci on televisiva tradicional. El proyecto est a basado en un primer prototipo de plataforma de avatares, que existe actualmente para otras lenguas. Para el desarrollo del proyecto se ha formado un consorcio integrado por la asociaci on VICOMTech, el Grupo Aholab de la Universidad del Pa s Vasco/Euskal Herriko Unibertsitatea(UPV/EHU) y las productoras Baleuko y Talape. Baleuko y Talape cuentan con una amplia experiencia en animaci on 3D. Baleuko ha producido, entre otros, uno de los primeros largometrajes 3D en Europa. Produce tambi en alrededor de 8 minutos semanales de BetiZu, una serie de animaci on 3D para el canal de televisi on vasco, ETB, que se ha convertido en uno de los programas televisivos para ni nos m as vistos en el Pa s Vasco. rea de gr Baleuko y Talape est an interesados en el a acos por computador y su aplicaci on para televisi on, en particular, para el personaje BetiZu, una vaca espacial que habla euskera [Figura 1]. El proyecto ABATEUS ayudar a en el proceso de producci on de Baleuko a automatizar la animaci on facial de sus personajes en las secuencias habladas y permitir a el reas innovadoras y uso de su personaje estrella en otras a poco convencionales. Esta tecnolog a puede mejorar el actual escenario de modelado, animaci on y producci on de contenidos televisivos y extender las actividades de las empresas a otros canales de comunicaci on como puede ser Internet o CDs multimedia. VICOMTech es responsable de la plataforma avatar, especialmente de la sincronizaci on entre la animaci on facial y el audio, y de los algoritmos de gr acos 3D. Dentro de este rea es importante destacar la relevancia de las expresiones a emocionales en la animaci on facial as como de la implementaci on de las reglas de comportamiento, para dar al avatar una movilidad cre ble y poder integrarlo en aplicaciones de TV.

VICOMTech colabora en estos proyectos con GRIS y ZGDV (Departamento de Digital Storytelling) compartiendo sus rea de avatares, en la que ambos grupos conocimientos en el a han tenido una gran experiencia. ZGDV, GRIS y VICOMTech son miembros de la INI-GraphicsNet. El grupo Aholab, de la UPV/EHU, est a desarrollando un sintetizador de voz en Euskera capaz de soportar carga emocional. Su primera versi on, sin carga emocional, ya ha sido integrada en ABATEUS. Actualmente el primer prototipo es completamente funcional y capaz de sintetizar textos en euskera con el personaje de BetiZu. El trabajo en s ntesis de voz emocional, calidad de renderizaci on e integraci on en otros m odulos o plataformas est a en curso. 2.1. Descripci on del sistema Como se puede ver en la Figura 2, la arquitectura del sistema est a dividida en tres m odulos fundamentales que explicamos a continuaci on: 2.1.1. M odulo de S ntesis de Voz (Aholab) El funcionamiento del sistema es el siguiente: el texto etiquetado de entrada (que puede provenir de m ultiples posibles fuentes: teclado, Internet, archivo), contiene el texto que se va a pronunciar, m as unas etiquetas especiales que indican las emociones con que se deben emitir ciertas partes del texto, as como eventos emocionales complejos relacionados tales como risas, lloros, etc. El m odulo de preprocesado interpreta ese texto etiquetado y extrae las emociones que se transeren a la plataforma gr aca para controlar la expresi on de la cara. El texto a pronunciar, as como las emociones y los eventos relacionados con ellas se transeren tambi en al procesador ling u stico del conversor texto a voz. El procesador ling u stico calcula la cadena de sonidos necesaria para emitir el mensaje contenido en el texto con la

emoci on indicada por las etiquetas, asignando a cada fonema sus caracter sticas pros odicas, principalmente su duraci on y entonaci on. Estas caracter sticas pros odicas, junto con la cadena de sonidos a pronunciar (fonemas y sonidos asociados a los eventos emocionales) se transeren a la plataforma gr aca y al m odulo motor de s ntesis de voz en Euskera. Finalmente el motor de s ntesis genera la se nal de voz correspondiente, que se lanza simult aneamente a la secuencia animada de im agenes calculada por la plataforma avatar. Una de las labores de Aholab es la grabaci on y la creaci on de una Base de Datos emocional con la voz de BetiZu usando los estudios de grabaci on de Baleuko. 2.1.2. M odulo de Animaci on y Sincronizaci on (VICOMTech) Por otro lado, para reproducir la salida gr aca se necesitan algunos de los par ametros del sintetizador de voz con el n de coordinar los gestos faciales de habla. Principalmente son la frecuencia fundamental o pitch y la duraci on de cada fonema, aunque tambi en se incluyen sonidos y eventos emocionales basados en marcas o etiquetas del texto. Con estos datos, se asociar a cada fonema a su visema correspondiente -equivalente visual del fonema- mediante t ecnicas avanzadas de morphing [2] y con base en objetivos morph b asicos (morph targets) que representan posiciones preestablecidas del rostro. La animaci on 3D gestual del habla est a basada en los par ametros procedentes del sintetizador junto con la aplicaci on de una serie de reglas de comportamiento internas (asociadas con emociones), y la combinaci on de los objetos b asicos, establecidos previamente, y combinados con la t ecnica morphing. Cada objeto es una representaci on 3D de la cara en una posici on determinada (ej. Boca abierta en forma de O). De esta manera, se podr an representar cambios a lo largo del tiempo como una interpolaci on de guras dadas. Los objetos b asicos son determinados para un personaje particular mediante diversas posiciones faciales, representadas por mallas poligonales en cheros con el formato est andar de Alias Wavefront. Estas posiciones faciales, pueden ser f acilmente producidas en el entorno usual de trabajo de Baleuko y Talape. 2.1.3. M odulo de Adaptaci on de Geometr as (VICOMTech) Este es el m odulo encargado de adaptar nuevos personajes a la plataforma a partir de los cheros de mallas obtenidos en los entornos habituales de trabajo de Baleuko y Talape para animaci on 3D. La generaci on de los archivos de mallas es ste es un est completamente autom atica, puesto que e andar de facto para la descripci on de mallas poligonales en la industria de animaci on gr aca. Para cada personaje debe generarse un n umero preestablecido de posiciones faciales est aticas 3D. A partir de estos archivos, el m odulo adaptador de mallas poligonales faciales genera una representaci on interna de la informaci on geom etrica apta para el procesado y la aplicaci on de las t ecnicas de morphing necesarias para la animaci on en la plataforma.

2.2. Funcionalidades de ABATEUS A continuaci on se presentan algunas de las principales funcionalidades que ya ofrece la plataforma avatar desarrollada para el proyecto: MULTILUNGUALIDAD : Un resultado clave de nuestro proyecto es la inclusi on del euskera en la plataforma de desarrollo del avatar. As , el sistema est a disponible para el ingl es, el castellano y el alem an. Para estas lenguas la voz es sintetizada utilizando el sistema de s ntesis p ublico MBROLA [3]. Para el caso del euskera, como ya se ha mencionado, se incorpora el sistema de s ntesis AhoTTS [4] FACIAL : ANIMACION Las partes faciales que son habitualmente animadas en el avatar son: la cabeza, los labios, los ojos, las pupilas, las cejas y las pesta nas. Para este trabajo, se utilizan tambi en animaciones propias del cartoon, como el movimiento de las orejas de Betizu, la nariz, etc. Algunas de las animaciones simplemente se realizan generando una deformaci on individual m as una traslaci on o desplazamiento en una determinada trayectoria, como es el caso de las pupilas o el movimiento de la cabeza. Otras, como las de los labios, se realizan utilizando t ecnicas de morphing.

Figura 3: T ecnica Morphing.

Para representar una animaci on con esta t ecnica, lo primero que hay que hacer es encontrar un apropiado conjunto de objetos b asicos (Bi en la Figura 3 y en la f ormula 1), de tal manera que todas las expresiones faciales necesarias para producir la animaci on, se puedan obtener a partir de una combinaci on de estos objetos b asicos. Para este proyecto se han denido 14 objetos b asicos diferentes. La animaci on se representa por una geometr a base (ej: malla headDefault) y un conjunto de keyframes o vector de pesos. Cada valor del vector de pesos corresponde al valor de interpolaci on (ai en la Figura 3 y en la f ormula 1). Los objetos b asicos est an denidos por una serie de v ertices , vij que se mueven a lo largo del tiempo para producir la animaci on. Las secuencias de animaciones se van a generar realizando las operaciones denidas en la f ormula 1 seg un los valores de entrada, tal y como se observa en la gura 3.
n1 n1

DIFERENTES PERSONAJES : El sistema es exible, de tal forma que contiene un m odulo especial que permite el cambio de un avatar a otro de una manera sencilla para el usuario. Esto permitir a a la empresa la utilizaci on futura de la plataforma ABATEUS, no s olo para su personaje protagonista, BetiZu, sino para cualquiera de ellos. As mismo, la arquitectura del sistema soporta avatares de car acter humano o de dibujo animado 3D. TEXTURAS Y MATERIALES : El sistema soporta materiales diferentes y texturas, incluyendo fotograf as de personas. Con dos o tres fotos es posible reproducir un avatar con una apariencia real, aunque actualmente este proceso requiere una intensa intervenci on manual del programador. EVENTOS : El sistema es capaz de captar eventos de usuario tales como Parar!.o Hablar!. La l nea de investigaci on est a centrada actualmente en los eventos emocionales, como risas, suspiros, sorpresa, llanto, etc. que se introducen manualmente en el texto de entrada.

B (a) =
i=0

ai B i = (
i=0

ai vij )

(1)

EMOCIONES FACIALES : Una de las principales ventajas de contar con un avatar 3D conversacional es la de generar al usuario la ilusi on de estar interactuando con el sistema como si estuviera comunic andose con una persona real. Esto se consigue imitando di alogos y formas de movimiento de las comunicaciones entre humanos. Un ejemplo del empleo de estas estrategias de comunicaci on nos lo proporcionan los sistemas de Digital StoryTelling[5]. La sincronizaci on del habla con la animaci on facial, y la simulaci on de expresiones emocionales son actualmente reas de investigaci a on muy activas y son elementos claves en el proceso de comunicaci on. La expresividad y las reglas de comportamiento del avatar son tan importantes para conseguir captar la atenci on del usuario como una buena calidad de voz e imagen. Las emociones implementadas en el avatar son un subgrupo de las emociones denidas seg un MPEG-4: alegr a, tristeza, enfado y neutral, con un control param etrico de la intensidad de cada una de ellas. : ALTA RESOLUCION El objetivo del proyecto es permitir, tanto como sea posible, el soporte de modelos de alta resoluci on. La investigaci on se centra en soportar las mismas resoluciones utilizadas por la empresa en los procesos de animaci on 3D, sin perder calidad en una ejecuci on r apida y sincronizada con el audio. Actualmente utilizan modelos de aproximadamente 25000 pol gonos para las animaciones faciales nales, aunque durante el proceso de animacion trabajan con modelos menos pesados. La plataforma gr aca, actualmente es capaz de mover modelos de 5000 pol gonos. La resoluci on nal utilizada permitir a al usuario ejecutar el programa en un PC ordinario con tarjeta gr aca sin ninguna especicaci on especial.

3. L neas de aplicaci on
El prototipo podr a ser f acilmente extensible a cualquiera de los siguientes escenarios:

Figura 4: BetiZu en la web.

3.1. Internet Actualmente, Internet es un medio bien conocido y que esta al alcance de muchos usuarios. Es una v a r apida de informaci on, pero tambi en de comunicaci on. Las redes no son exclusivamente utilizadas hoy en d a como medio de b usqueda de informaci on sobre m ultiples temas, sino tambi en como v a de comunicaci on con otros puntos del mundo, ya sea a trav es del correo electr onico como a trav es del chat. La utilizaci on de avatares en la red [6], personaliza la conexi on del visitante, haci endola m as natural. El papel del avatar integrado en una p agina web ofrece, entre otras, funcionalidades interactivas como: asistentes en

e-commerce o e-learning, acompa nante y gu a en los juegos de red o Tele-presencia en chats. En nuestro caso[Figura 4], la aplicaci on consiste en un lector de noticias de BetiZu para la p agina web de Baleuko. Este prototipo ha sido implementado mediante applets de Java. La animaci on gr aca se ejecuta en el cliente mientras que la generaci on de los archivos de audio se generan en el servidor. La arquitectura de red est a dise nada para que el usuario no tenga que instalar ning un nuevo programa en su ordenador, de tal forma que podr a interactuar con BetiZu en el momento de l. conectarse a la p agina. Toda la ejecuci on es transparente para e

el lenguaje de comunicaci on, el tipo de interfaces y los servicios interactivos que se les proporcione durante la teleformaci on[11]. La tele-presencia es esencial para captar la atenci on del alumno. Por ello, los avatares ofrecer an un incremento en la aceptaci on del sistema de educaci on, tomando el rol de: profesor, alumno o compa nero, o incluso como gu a en un Entorno Virtual Educativo. En la gura 5 se observa un prototipo con base en un entorno virtual educativo en el que BetiZu act ua como profesora. El entorno consiste en un espacio tridimensional dividido en tres zonas o habitaciones que contienen diversos objetos sobre los que se puede interactuar. El usuario puede moverse por todo el entorno, siempre en el plano horizontal, pudiendo orientar la vista en los tres ejes. Se han tenido en cuenta las posibles colisiones que puedan ocurrir entre el visitante y el entorno, de tal forma que el usuario no podr a atravesar las paredes ni los objetos. La implementaci on del prototipo esta realizada en Open Inventor y C++. El principal elemento de interacci on entre el visitante y el entorno es BetiZu. Como se observa en la gura sta se encuentra en una ventana activa fuera del entorno vir5, e tual. Cuando detecta alguna tipo de interacci on con el entorno, averigua de donde viene la orden y realiza las acciones pertinentes, como comenzar una descripci on del objeto o explicar las posibilidades de interacci on que ofrece la habitaci on virtual en la que se encuentra el usuario.

3.2. Televisi on Digital Interactiva La televisi on digital interactiva enriquece la experiencia de ver televisi on, dando al espectador la posibilidad de ser un agente activo gracias a varias aplicaciones[7], como pueden ser; Chat, Juegos, E-commerce, Gu a de programas electr onicos, etc. El avatar tiene cabida dentro de todas estas aplicaciones ayudando a generar en el espectador la sensaci on de estar realmente interactuando con un personaje real y de una manera individualizada. Como ejemplo, algunas de las aplicaciones de avatares para una plataforma televisiva podr an ser: Gu a a trav es de la programaci on televisiva y de los diferentes canales. Personaje que puede interactuar individualmente con el espectador transmitiendo contenidos interactivos. Presentador virtual 3.3. Aplicaciones multimedia Las aplicaciones multimedia, como audio, v deo, etc. son un gran apoyo a la hora de presentar informaci on de cualquier tipo, educativo, de ocio, etc. Pero muchas veces, no es suciente. Cada vez se est a utilizando m as el contenido hyper-media [8], pero sigue faltando el agente inteligente con representaci on gr aca, que permita una interacci on natural para el hombre. Dentro del contexto Edutainment (Educaci on y Entretenimiento) podemos tomar como ejemplo una aplicaci on multimedia cuyo objetivo sea contar cuentos a ni nos. El audio y el v deo son imprescindibles para ello, pero para captar la atenci on del espectador, poder personalizar el cuento y hacerlo din amico, seg un indican los estudios realizados sobre Digital Storytelling, falta la gura del cuenta cuentos[9]. En el contexto concreto del proyecto ABATEUS, un cuentacuentos con la apariencia de Betizu, en el que el ni no pudiera ver c omo su personaje de dibujos animados le cuenta un cuento personalizado e interactivo, ser a de gran ayuda para la producci on y difusi on de la serie. La caracter stica de personalizaci on se consigue gracias a la capacidad de respuesta en tiempo real del sistema. 3.4. Educaci on La interacci on estudiante-estudiante, en adici on a la interacci on estudiante-contenido y estudiante-profesor, es una parte a menudo descuidada en la educaci on a distancia [10]. En este contexto, la motivaci on de los alumnos variar a seg un

Figura 5: BetiZu integrada en Entorno Educativo.

3.5. Entornos normales de producci on para televisi on Las animaciones 3D para televisi on actualmente utilizan algunos de los programas de modelado y animaci on existentes en el mercado. En concreto, las empresas Baleuko y Talape, animan su serie televisiva, con uno de estos programas comerciales realiz andolo de forma manual. Integrando esta tecnolog a en su entorno actual de producci on, se podr a ayudar a la automatizaci on de la animaci on facial en las secuencias habladas. El m odulo de animaci on que utilizan, obtendr a como entrada, la salida gr aca y el audio sincronizados de la plataforma avatar.

4. Conclusiones y Trabajo Futuro


Los avatares y las interfaces conversacionales de usuario abren muchas puertas a la interacci on hombre-maquina, proveyendo una interfaz mucho m as natural e intuitiva. En denitiva, son una forma innovadora y audaz para mejorar la interfaz de usuario en varios aspectos, y muy exible para ser integrado en otras plataformas. En concreto, para este proyecto, se va a facilitar con valor adicional, la integraci on de los avatares en la televisi on 3D, en la producci on de pel culas y reas relacionadas. en a Por otro lado, las lenguas minoritarias han sido dejados de rea de las tecnolog lado en el mercado dentro del a as del habla. Esta tecnolog a debe poder llegar a todas las culturas por lo que consideramos prioritario el desarrollo de avatares en estas lenguas. Encontramos as dos tecnolog as con mucho potencial de sinergia, la de la s ntesis de voz y la de gr acos por rea de s computador. Dentro del a ntesis de voz, es importante resaltar la necesidad de avanzar especialmente en las lenguas minoritarias, y los avatares necesitan de esta capacidad para poder comunicarse con el usuario. Este proyecto une ambas tecnolog as y es la prueba de que existen muchas posibilidades cient cas y pr acticas de interacci on entre ambos. Con el se mejora la calidad de interacci on entre el hombre y la m aquina, ofreciendo al usuario la posibilidad de hacerlo en su propio idioma. Se han obtenido ya unos buenos resultados iniciales, que ser an mejorados en la segunda fase del proyecto. Las l neas de investigaci on futuras se centrar an en las expresiones corporales y relaciones espaciales. Esto signica ampliar la animaci on facial a animaci on corporal y a su integraci on total en entornos virtuales, aplicando reglas de comportamiento dependiendo de su situaci on espacial dentro del entorno. Por otro lado, existe la necesidad de crear una comunicaci on hablada bidireccional, en la que el usuario pueda utilizar para la interacci on, adem as de el rat on y el teclado, su propia voz. Por rea de ello, otra de las l neas de investigaci on futuras en el a avatares conversacionales es la incorporaci on de sistemas de reconocimiento de voz.

ternet Video. In: Kluev, V.V. (Hrsg.) u.a.; World Scientic and Engineering Society (WSES): Proceedings of WSES Conferences 2001. CD-ROM : SSIP-MIV- SIMRODLICS. 2001 [7] [8] Hari Om Srivastava: Interactive TV: Technology and Markets. Editado por: Digital Audio And Video Series. Braun, N., Finke, M. Interaction of Video on Demand Systems with Human-like Avatars and Hypermedia. 7th International Workshop on Interactive Distributed Multimedia Systems and Telecommunication Services, IDMS2000 (en cooperaci on con ACM SIGCOMM y SIGMM) Octubre 17-20, 2000, Enschede, Holanda. Ryokai, K., Vaucelle, C., Cassell, J.(2002). Literacy Learning by Storytelling with a Virtual Peer. Proceedings of Computer Support for Collaborative Learning. January 7-11, Boulder, CO, pp. 352-360.

[9]

[10] Ant on Nijholt. Computer-facilitated Communit Building for E-Learning. Center of Telematics and Information Technology. University of Twente, Po Box 217. Publication 2002 [11] Ryokai, K., Vaucelle, C., Cassell, J.(2002). Literacy Learning by Storytelling with a Virtual Peer. Proceedings of Computer Support for Collaborative Learning. January 7-11, Boulder, CO, pp. 352-360.

5. Referencias
[1] [2] [3] [4] Maes, P.: Agents that Reduce Work and Information Overload, Communications of the ACM, Vol. 7/7, July 1994. Alexa M., Behr J., M uller W. (2000). The Morph Node. Proc. Web3d/VRML 2000, Monterey, CA., pp. 29-34 http://tcts.fpms.ac.be/synthesis/mbrola.html Inma Hernaez, Eva Navas, Juan Luis Murugarren, Borja Etxebarria: Description of the AhoTTS System for the Basque Language.2001 Norbert Braun, Storytelling & Conversation to Improve the Fun Factor in Software Applications. CHI 2002 Conference on Human Factors in Computing Systems, Workshop Funologie, Minneapolis, Minnesota, SIGCHI, ACM, USA Interactive problem solving with speech, J. Acoust. Soc. Amer., Vol. 84, 1988, p S213(A). Braun N, Finke M, Rieger Th: Community TV: An Approach to Interaction for Groups and Single Users on In-

[5]

[6]

Potrebbero piacerti anche