El avance de la tecnología ha traído diversas mejoras con el paso de los años, en los que el entretenimiento humano y el ámbito comercial han sido los principales rubros beneficiados. No obstante, este sector también se actualiza para dar soporte a aquellas personas que más lo necesitan, por ejemplo, a quienes no pueden hablar o no son capaces de comunicarse de forma común
Son varios los desafíos que afrontan estos individuos, quienes en ocasiones necesitan de un componente o producto adicional para poder expresar mejor su lengua de señas. Por ello, en un intento por facilitar este aspecto para este grupo, la joven estudiante de ingeniería Priyanjali Gupta ha creado en la India un modelo de inteligencia artificial que puede comprender estos gestos en tiempo real.
Esta creación se realizó junto al Instituto de Tecnología Vellore, donde se usó un sistema de detección de objetos de Tensorflow para aplicarla en los ordenadores. A diferencia de otros usuarios, Gupta compartió públicamente su creación en su cuenta de LinkedIn, donde demostró las capacidades de su modelo de IA en un video de demostración. Puedes ver el clip a continuación:
PUEDES VER: ¿Cómo usar tu celular Android o iPhone para encontrar cámaras escondidas en una habitación?
“El conjunto de datos se crea manualmente ejecutando el archivo Image Collection Python, que recopila imágenes de su cámara web para todos los signos mencionados a continuación en el lenguaje de señas americano: Hola, te amo, gracias, por favor, sí y no”, explica en sus publicaciones y videos de la red profesional.
Para realizar esto, Priyanjali, de 20 años, comentó que usó como caso de evaluación al dispositivo Alexa, el cual toma comandos cuando habla un usuario.