Mostrar el registro sencillo del ítem

dc.contributor.advisorEnciso Rodas, Lauro
dc.contributor.authorDiaz Ccasa, Naysha Naydu
dc.contributor.authorHuallpa Vargas, Yuri Vladimir
dc.date.accessioned2019-07-12T20:58:25Z
dc.date.available2019-07-12T20:58:25Z
dc.date.issued2019
dc.identifier.other253T20190356
dc.identifier.otherIN/009/2019
dc.identifier.urihttp://hdl.handle.net/20.500.12918/4262
dc.description.abstractLa lengua de señas se percibe a través de la vista y requiere el uso de la cabeza, cuello, torso y brazos para transmitir información bajo un espacio temporal. Como cualquier otra lengua el LSP está conformado por una sintaxis, gramática y léxico diferentes del idioma oficial. El 2003 se propuso la iniciativa de educación inclusiva para personas sordas, pero no tuvo un efecto, posteriormente el ministerio de educación MINEDU, cambio el panorama y la ley 29535 dio su reconocimiento a la lengua de señas para la investigación, difusión y enseñanza para personas sordas por intérpretes acreditados. Sin embargo actualmente el LSP se encuentra dentro de las lenguas minoritarias del Perú según la Dirección General de Educación Básica Especial las personas con discapacidad auditiva se ven en la necesidad de aprender esta lengua para interactuar en la sociedad a diferencia del resto de personas que no sufren de esta discapacidad y no tienen la necesidad de aprender esta lengua, por lo que se crea una barrera en la comunicación, pese a las legislaciones del estado es muy común ver la indiferencia a esta comunidad, ya sea voluntaria o involuntariamente. Mediante técnicas de Deep Learning1 se facilita la interpretación del LSP y con una mejora en la tasa de precisi´on2 frente a modelos similares, se construye un traductor unidireccional que permita captar las señas de una persona con un dispositivo e interpretarlas en nuestro idioma. Por otro lado, se genera un dataset de vıdeos de 10 señas almacenados en 100 frames aproximadamente cada uno. El modelo de solución alimenta a la arquitectura con datos generados por un sensor Kinect, el sensor es capaz de generar un video compuesto por tres tipos de datos: frames RGB, Depth3 y Skeleton4, los datos son agrupados según el modelo para extraer las características de cada frame y posteriormente alimentan la parte recurrente encargada de la traducción. Finalmente, nuestro modelo propuesto obtuvo una tasa de exactitud de 99.23 %, una tasa muy aceptable que contribuirá a futuros trabajos dentro de este campo.es_PE
dc.description.uriTesis
dc.formatapplication/pdfen_US
dc.language.isospaes_PE
dc.publisherUniversidad Nacional de San Antonio Abad del Cuscoes_PE
dc.rightsinfo:eu-repo/semantics/openAccessen_US
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/2.5/pe/*
dc.sourceUniversidad Nacional de San Antonio Abad del Cuscoes_PE
dc.sourceRepositorio Institucional - UNSAACes_PE
dc.subjectLengua de señases_PE
dc.subjectDeep learninges_PE
dc.subjectRedes recurrenteses_PE
dc.subjectSensor Kinectes_PE
dc.titleArquitectura de interpretación de expresiones comunes de la lengua de señas del Perú al idioma españoles_PE
dc.typeinfo:eu-repo/semantics/bachelorThesis
thesis.degree.nameIngeniero Informático y de Sistemas
thesis.degree.grantorUniversidad Nacional de San Antonio Abad del Cusco. Facultad de Ingeniería Eléctrica, Electrónica, Informática y Mecánica
thesis.degree.levelTítulo profesional
thesis.degree.disciplineIngeniería Informática y de Sistemas
dc.subject.ocdehttp://purl.org/pe-repo/ocde/ford#2.02.03
renati.author.dni72379197
renati.author.dni76152092
renati.advisor.orcidhttps://orcid.org/0000-0001-6266-0838
renati.advisor.dni23853228
renati.typehttp://purl.org/pe-repo/renati/type#tesis
renati.levelhttp://purl.org/pe-repo/renati/nivel#tituloProfesional
renati.discipline612296
dc.publisher.countryPE


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

info:eu-repo/semantics/openAccess
Excepto si se señala otra cosa, la licencia del ítem se describe como info:eu-repo/semantics/openAccess