Comunicaciones presentadas



Descargar 9.25 Mb.
Página4/33
Fecha de conversión23.12.2018
Tamaño9.25 Mb.
Vistas526
Descargas0
1   2   3   4   5   6   7   8   9   ...   33

Caso de uso de creación


Para este caso de uso, el usuario escribe la descripción de un modelo en un lenguaje específico de dominio (GRACES DSL), diseñado ad hoc para nuestra herramienta. A partir de él, la herramienta genera un modelo intermedio (modelo GRACES), y a continuación lo transforma a un modelo UML en formato XMI, que puede ser importado por otras herramientas.






Modelo ISSTCase





Modelo ISSTCase

El modelo ISSTCase tiene 7 clases:





  • Asignatura


  • Becario


  • Departamento


  • Escuela


  • Estudiante


  • Profesor


  • Universidad


El modelo ISSTCase tiene 1 interfaces:





  • Investigador




Clase Asignatura con visibilidad pública





No extiende a nada.



No es extendida.



Los atributos de la clase Asignatura son:







  • acrónimo de tipo String con visibilidad pública





  • curso de tipo Integer con visibilidad pública





  • semestre de tipo Integer con visibilidad pública





La clase Asignatura no tiene operaciones



La clase Asignatura tiene las siguientes relaciones:



[…]

Listado 1: Código HTML resultado de la transformación mediante la herramienta GRACES


model ISSTCase {

class Profesor {

public nombre : String ;

public nrp : String ;

public despacho : String ;

public email : String ;

operation Profesor (in nombre : String );

operation evalua

(in estudiante : Estudiante ,

in asignatura : Asignatura )

return Boolean ;

}

class Alumno {



public nombre : String ;

public apellido : String ;

}

relation association " ensena a" {



1..2 Profesor 1..5 Alumno

}

}


Listado 2: Ejemplo de modelo descrito en el lenguaje GRACES DSL

El lenguaje GRACES DSL (Listado 2) está definido en un lenguaje de descripción de gramáticas de la herramienta Xtext (Bettini2016). Esta herramienta permite construir un modelo a partir de un fichero de texto conforme con la gramática de un DSL dado, mediante el análisis léxico (lexer), sintáctico (parser) y semántico del modelo. Este modelo, aunque refleja los distintos elementos definidos por el usuario que escribió el fichero de entrada, está descrito en un lenguaje específico de nuestra herramienta; por tanto, aún es necesario transformarlo para que sea útil para un usuario final.

El paso del modelo GRACES al modelo UML se ha realizado mediante la definición de transformaciones definidas en el lenguaje QVTo, que permite mapear entre los elementos del modelo fuente (GRACES) y del modelo objetivo (UML), a partir de la estructura de los metamodelos respectivos. Finalmente, este modelo UML se serializa en un fichero en formato XMI, que ya puede ser importado para su uso por otras herramientas de modelado.

  1. Evaluación y conclusión


GRACES contribuye a levantar las barreras de accesibilidad que limitan el acceso a los modelos y diagramas de ingeniería del software. La solución desarrollada se presenta como una prueba de concepto que ha servido para evaluar la viabilidad del proyecto, y la misma se encuentra publicada como un proyecto de código libre1, lo que permitiría a otros desarrolladores aportar al proyecto y ampliarlo en el futuro, introduciendo nuevos elementos de los diagramas UML o incluso introducir nuevos tipos de diagramas sin necesitar revisar completamente el código existente. Además, la herramienta permite su localización a otros idiomas simplemente escribiendo ficheros de recursos con traducciones, sin editar el código fuente. En la actualidad, se están llevando a cabo actividades de evaluación con más de una decena de desarrolladores ciegos, de distintos perfiles laborales, edades, géneros y países para validar las ideas y recibir realimentación.
  1. Referencias


Baillie, Christopher, Burmeister, Oliver K., Hamlyn-Harris, James H., “Web-based teaching: Communicating technical diagrams with the vision impaired”, en Proceedings of OZeWAI 2003, Australian Web Accessibility Initiative Conference, 2003.

Barendrecht, Pieter J. "Modeling transformations using QVT operational mappings." Research project report. Eindhoven: Eindhoven University of Technology Department of Mechanical Engineering Systems Engineering Group (2010).

Bettini, Lorenzo. Implementing domain-specific languages with Xtext and Xtend. Packt Publishing Ltd, 2016.

Blenkhorn, P, et al. 2003, “Providing blind people with access to technical diagrams” en Assistive Technology: Shaping The Future. Assistive Technology Research Series, vol. 11, IOS Press, Amsterdam, pp. 466-471.

Brookshire, Robert G. "Teaching UML database modeling to visually impaired students.", en Issues in Information Systems, vol. 7, n. 1 (2006), pages 98-101.

Coburn, Sarah, and Charles B. Owen. "UML diagrams for blind programmers." en Proceedings of the 2014 ASEE North Central Section Conference. 2014.

Doherty, Brad, Cheng, Betty H.C. "UML Modeling for Visually-Impaired Persons." En HuFaMo@ MoDELS, 2015.

dos Santos, Luiz G., et al. "Recursos de acessibilidade para auxiliar a navegação de estudantes cegos em um editor de diagramas." en Brazilian Symposium on Computers in Education (Simpósio Brasileiro de Informática na Educação-SBIE), vol. 23, n. 1. 2012.

Esteves Pansanato, Luciano Tadeu, Martins Bandeira, André Luís, dos Santos, Luiz Gustavo, do Prado Pereira, Dferson. 2012. Projeto D4ALL: acesso e manipulação de diagramas por pessoas com deficiência visual. en Proceedings of the 11th Brazilian Symposium on Human Factors in Computing Systems (IHC '12). Brazilian Computer Society, Porto Alegre, Brazil, Brazil, 33-36.

Eurostat. “ICT specialists in employment”, en Statistics Explained, Eurostat, 2018.

Fredj, Z.B. & Duce, D.A. “GraSSML: accessible smart schematic diagrams for all.” en Univ Access Inf Soc (2007) vo. 6, n.3, pages. 233-247.

Fundación Universia. Universidad y discapacidad III. III Estudio sobre el grado de inclusión del sistema universitario español respecto de la realidad de la discapacidad. Madrid, 2016.

Grillo, Filipe Del Nero, de Mattos Fortes, Renata Pontin, Lucrédio, Daniel. "Towards collaboration between sighted and visually impaired developers in the context of Model-Driven Engineering." en Joint Proceedings of Co-located Events at the 8th European Conference on Modelling Foundations and Applications (ECMFA 2012), Lyngby. 2012.

Groenda, Henning, Seifermann, Stephan, Müller, Karin, Jaworek, Gerhard. "The Cooperate Assistive Teamwork Environment for Software Description Languages." en Assistive Technology: Building Bridges, n. 217 (2015), pág. 111.

INE (Instituto Nacional de Estadística). INEBase, El salario de las personas con discapacidad. Serie 2010-2016. Madrid, 2018.

INE (Instituto Nacional de Estadística). INEBase. El empleo de las personas con discapacidad. Serie 2014-2016. Madrid, 2017.

INE (Instituto Nacional de Estadística). INEBase. Encuesta trimestral de coste laboral. Madrid, 2018.

King A., Blenkhorn P., Crombie D., Dijkstra S., Evans G., Wood J. (2004) “Presenting UML Software Engineering Diagrams to Blind People”. en: Computers Helping People with Special Needs. ICCHP 2004. Lecture Notes in Computer Science, vol 3118. Springer, Berlin, Heidelberg, págs. 522-529.

Loitsch C., Weber G. “Viable Haptic UML for Blind People”, en Miesenberger K., Karshmer A., Penaz P., Zagler W. (eds) Computers Helping People with Special Needs. ICCHP 2012. Lecture Notes in Computer Science, vol. 7383. Springer, Berlin, Heidelberg, (2012), págs. 509-516

Luque L., Veriscimo E.S., Pereira G.C., Filgueiras L.V.L. “Can We Work Together? On the Inclusion of Blind People in UML Model-Based Tasks.”, en Inclusive Designing. Springer, Cham, 2014, págs. 223-233.

Luque, Leandro et al. “On the Inclusion of Blind People in UML e-Learning Activities”, en Brazilian Journal of Computers in Education, [S.l.], v. 23, n. 02, p. 18, 2015.

Metatla, Oussama, et al. "Cross-modal collaborative interaction between visually-impaired and sighted users in the workplace." Georgia Institute of Technology, 2012.

Miller, Dorian. Can we work together? Diss. The University of North Carolina at Chapel Hill, 2009.

Müller K. “How to Make Unified Modeling Language Diagrams Accessible for Blind Students”, en Computers Helping People with Special Needs. ICCHP 2012. Lecture Notes in Computer Science, vol 7382. Springer, Berlin, Heidelberg, pages. 186-190.

Observatorio Nacional de las Telecomunicaciones y de la Sociedad de la información (ONTSI). Informe Anual del sector TIC y de los Contenidos en España 2017. Red.es, Madrid, 2017.

ODISMET (Observatorio sobre Discapacidad y Mercado de Trabajo en España). La situación de las personas con discapacidad en el mercado laboral. Fundación ONCE, Madrid, 2017.

OMG (Object Management Group). MOF Model to Text Transformation Language, v1.0. 2008.

Silva, Christiane E., L. T. Pansanato, and José A. Fabri. "Ensinando diagramas UML para estudantes cegos." en XVIII CIESC–XXXVI CLEI (2010).

Spinellis, Diomidis. "On the declarative specification of models." en IEEE Software, vol. 20, n. 2 (2003), pages. 96-95.

COMUNICACIÓN 2

ListenAll’. Democratizando el uso del reconocimiento de voz como herramienta de integración para personas con discapacidad auditiva

José María Fernández Gil

Técnico de Accesibilidad

Universidad de Alicante

Josefa Parreño Selva

Directora del Secretariado de Empleo y Apoyo a Estudiantes

Universidad de Alicante

Alberto Cantó Pérez

Especialista Técnico

Universidad de Alicante

Introducción

La Universidad de Alicante y la Fundación Vodafone España colaboran desde hace 5 años en iniciativas que fomenten la integración de personas con discapacidad, y especialmente de las y los estudiantes con discapacidad en la Universidad de Alicante.



Como ejemplo de innovación se puede encontrar la app Ability Connect, que permite la comunicación alternativa y adaptada a las necesidades de varios colectivos de personas con discapacidad. En este sentido, se ha dado un paso al frente con la creación de una nueva app llamada ListenAll especializada en el reconocimiento de voz y transcripción a texto y que complementará y completará la app Ability Connect.

Imagen 1. Dos alumnos haciendo uso de la aplicación Ability Connect en un aula de la Universidad de Alicante



Antecedentes

En la actualidad existen varias aplicaciones de reconocimiento de voz en las tiendas de aplicaciones de los dos grandes sistemas operativos: iOS y Android. Pero, la mayoría de estas aplicaciones presentan limitaciones en su funcionamiento y no están diseñadas para cumplir las necesidades específicas que pueden tener varios colectivos con discapacidad.



A continuación, se describen las principales limitaciones de funcionamiento de las aplicaciones existentes y las necesidades reales que presentan varios colectivos de personas con discapacidad.

Limitaciones de funcionamiento de aplicaciones

  1. Son de pago. Partiendo de precios alrededor de 20€ (o incluso por suscripción) que, por lo general, los usuarios no están dispuestos a pagar por la poca confianza que tienen en los desarrolladores, a menudo independientes de estas ‘apps’.

  2. Por lo general el reconocimiento de voz de estas ‘apps’ es limitado, partiendo de los 15 segundos hasta el minuto de duración. Es un tiempo insuficiente para un uso continuado y cómodo de esta función, por lo que es necesario numerosas interacciones con el dispositivo, lo que genera frustración en el usuario.

  3. El reconocimiento de voz utilizado es muy deficiente, sobre todo los que no tienen acceso a internet. Por ello, la calidad de la descripción no ofrece un mínimo de garantías.

  4. No permiten editar el texto reconocido y almacenarlo, lo que se convierten en apps de un solo uso y, por tanto, no son útiles si a cada acción hay que estar portando el contenido obtenido a otras apps.

  5. Las interfaces de interacción son difíciles de usar y no están adaptadas. Desde no ser compatibles con un lector de pantalla, a no integrarse con el tipo de fuente usado por el usuario en el sistema, a la dificultad para realizar pulsaciones en los botones por su proximidad o las reducidas dimensiones que tienen las áreas de texto.

  6. No se estructura el texto en párrafos, ni se procesan palabras y acciones típicas como “Punto y aparte”, “cierra interrogación”, etc.

Necesidades específicas en el uso de reconocimiento de voz por parte de personas con discapacidad

  1. Personas con problemas de movilidad. Les resulta complicado escribir en dispositivos táctiles (precisión) y/o en teclados físicos (motricidad).

  2. Personas con baja visión o ceguera: Escribir en teclados virtuales es complejo y lento para personas con problemas de visión, por lo que muchos de estos usuarios tienden a comunicarse mediante la voz o dejan aparcados los dispositivos móviles a favor de ordenadores con teclado físico para crear textos.

  3. Personas con discapacidad auditiva: hipoacusia. Estas personas en numerosas situaciones no alcanzan a comprender lo que están escuchando, ya sea por problemas del oído externo (cantidad) o el oído interno (calidad).

  4. Personas sordas no oralistas: Necesitan una app que les ayude, como en el caso de personas sordas oralistas, a interpretar mejor lo que ocurre a su alrededor. El reconocimiento no tiene por qué ser perfecto, ni reconocerlo todo. Pero con saber de qué se habla en una conversación entre dos personas. Ya es una información muy valiosa. En este contexto, una solución útil debería estar intentando reconocer el habla en tiempo real.

Objetivos

Creación de una app, llamada ListenAll, para dispositivos móviles con sistema operativo Android e iOS capaz de reconocer la voz y transcribirla a texto. La app se apoya de las propias librerías del sistema operativo y por tanto podrá ser ofrecida de manera gratuita para su uso por personas con discapacidad. ListenAll dispone de una serie de opciones para el usuario, como editar, guardar y compartir el texto recibido, así como la personalización del tipo de fuente, tamaño y color del texto.

Posteriormente se incorporará la solución desarrollada de reconocimiento de voz y transcripción a texto para su integración en la app de la UA y FVE Ability Connect.

ListenAll

Las principales funcionalidades de ListenAll son:



  1. Reconocimiento de voz y transcripción a texto desde varias fuentes de audio, ya sea el micrófono del dispositivo o dispositivos Bluetooth externos como manos libres.

  2. El reconocimiento de voz y la correspondiente transcripción será en tiempo real, sin cortes ni interrupciones (salvo en casos de pérdidas de conexión).

  3. La app será capaz de estructurar el texto por párrafos y segmentos dependiendo de los silencios o la duración de las frases. Con el objetivo de presentar el texto de una forma más agradable y no todo seguido.

  4. Los textos transcritos se podrán editar mediante el teclado a medida que se va recibiendo para solucionar problemas del reconocimiento.

  5. Los textos transcritos se podrán almacenar, editar y compartir con otras aplicaciones: Enviar por e-mail, WhatsApp, etc.

  6. La app seguirá los principios del diseño universal para ser accesible y adaptable a todos los usuarios.

  7. La app será capaz de recibir ficheros de audio desde otras aplicaciones y procesarlos y presentar el contenido reconocido: Un mensaje de audio de WhatsApp.

Ability Connect

Se crearán las actualizaciones necesarias para las versiones de Android e iOS que aprovechando la tecnología de reconocimiento de voz ya desarrollada en ListenAll, permita:



  1. Poder reconocer la voz y transcribirla a texto y enviarlo en tiempo real por Bluetooth y/o Internet en una sesión de Ability Connect en tiempo real con todos los usuarios conectados.

  2. Permitir a los usuarios que reciben el texto de una sesión de Ability Connect realizar preguntas sin necesidad de escribir, utilizando el reconocimiento de voz y la transcripción a texto.

  3. Añadir la posibilidad de utilizar el reconocimiento de voz y transcripción a texto en el editor de textos accesibles de Ability Connect.




Compartir con tus amigos:
1   2   3   4   5   6   7   8   9   ...   33


La base de datos está protegida por derechos de autor ©psicolog.org 2019
enviar mensaje

enter | registro
    Página principal


subir archivos