Software PNL, habla humana, nuevos retos para los desarrolladores
A medida que la inteligencia artificial se ha ido convirtiendo en una parte cotidiana de la vida de millones de consumidores de todo el mundo, a menudo pueden pasar desapercibidos los retos a los que se enfrentan los desarrolladores de software cuando buscan garantizar que el software de IA funcione con precisión y eficiencia. Hasta este punto, una de las aplicaciones más comunes de la inteligencia artificial son los populares asistentes de voz como Siri de Apple y Alexa de Amazon, así como los chatbots más básicos que los consumidores utilizan en el contexto de la atención al cliente. Dado que estos chatbots funcionan sobre la base del Procesamiento del Lenguaje Natural (PLN), existen diversos retos que pueden surgir a la hora de desarrollarlos. Dicho esto, algunos de los problemas más comunes a los que se enfrentan los desarrolladores de software a la hora de crear programas que utilicen el PLN son los homónimos, las palabras y frases contextuales, los sinónimos, el sarcasmo y la ironía, la ambigüedad y los errores generales en el habla o el texto.
Homónimos, palabras y frases contextuales
Dado que las palabras en inglés pueden tener la misma pronunciación pero significados completamente distintos (
), uno de los principales retos a los que se enfrentan los desarrolladores de software a la hora de crear chatbots o aplicaciones de voz a texto son los homónimos y las palabras y frases contextuales. Por ejemplo, mucha gente tiene problemas con el uso apropiado de las palabras their, there y they’re. Aunque estas tres palabras se pronuncian igual, en realidad tienen tres significados completamente distintos cuando se utilizan en el lenguaje escrito o hablado. En este sentido, al igual que los propios seres humanos pueden tener dificultades para utilizar las palabras en el contexto adecuado de vez en cuando, un programa informático que se esté desarrollando desde cero también se enfrentaría sin duda a estos retos.
Sinónimos
Los sinónimos también pueden plantear problemas a los modelos de aprendizaje automático que utiliza la PNL para funcionar. Como se pueden utilizar muchas palabras diferentes para describir o ilustrar la misma idea, un modelo de aprendizaje automático que no haya sido entrenado en todos los sinónimos posibles de una palabra o frase concreta tendrá dificultades para identificar estas palabras cuando se implemente en un chatbot o en una aplicación de voz a texto. Además, muchos sinónimos también denotan distintos niveles de alcance o complejidad, lo que plantea problemas adicionales. Por ejemplo, grande, sustancial, enorme y masivo son palabras que pueden utilizarse para describir el tamaño de un objeto o una persona, dependiendo del contexto en el que se utilicen en una conversación concreta.
Ironía y sarcasmo
Los conceptos de ironía y sarcasmo pueden ser un enigma para los desarrolladores de software que buscan crear algoritmos de aprendizaje automático de PNL. Al hablar con una persona en tiempo real, muchas personas pueden reconocer el sarcasmo o la ironía por el tono de voz del interlocutor o por el contexto de la conversación. Como los programas de software no tienen acceso a estas señales no verbales, estas aplicaciones pueden tener dificultades para entender palabras que tienen un significado positivo o negativo a nivel superficial y que, en realidad, se están utilizando para denotar el significado opuesto cuando se usan en una conversación. Por ejemplo, después de recibir un mal servicio en un restaurante, un cliente puede hacer un comentario sarcástico diciendo que el servicio fue de primera. Sin embargo, sin el contexto de haber recibido un mal servicio, un programa informático no sería capaz de reconocer el sarcasmo en esa afirmación.
Ambigüedad
Dado que el lenguaje se ha desarrollado como resultado de miles de años de interacción, cultura y comunicación humanas, todas las lenguas habladas y escritas contienen un mínimo de ambigüedad. Por ejemplo, una frase tan sencilla como “He visto al niño en la calle con mis prismáticos” puede tener dos significados diferentes. Por un lado, el hablante podría estar diciendo que está viendo al niño en la calle con sus prismáticos. Por otro lado, el hablante también podría estar diciendo que está viendo a un chico que camina por la calle sosteniendo físicamente los prismáticos del hablante. Por tanto, la ambigüedad también puede causar problemas a las aplicaciones de voz a texto y a los chatbots, ya que el software no será consciente del nivel de ambigüedad que puede haber en inglés o en otro idioma.
Errores en el habla o el texto
Por último, los errores simples en el habla o el texto también pueden plantear problemas a las aplicaciones de voz a texto. Un ejemplo habitual es el uso incorrecto de las palabras efecto y afectar. Aunque estas dos palabras suenan igual e incluso tienen significados similares, su uso incorrecto puede alterar por completo el significado de una frase u oración. Por ejemplo, una persona podría querer decir que la música que escucha le afecta de forma figurada, pero utilizar en su lugar el mundo efecto. Aunque esto parecería un simple error por parte del hablante, ya que los seres humanos seríamos capaces de captar el sentimiento del comentario, un programa informático podría interpretar que la misma frase significa que la música ha tenido un efecto físico en el hablante.
Aunque muchos seres humanos han dado por sentado el lenguaje escrito y hablado, los científicos de todo el mundo siguen luchando con las funciones mentales del cerebro que permiten a las personas comunicarse a los niveles más básicos. Por eso, la creación de programas informáticos capaces de entender y responder al lenguaje escrito y hablado puede resultar tan difícil. Desde sinónimos hasta errores en el habla o el texto, hay una serie de obstáculos que pueden disminuir la eficacia de un programa o aplicación de software de voz a texto. Por ello, aunque los populares chatbots como Siri y Alexa son maravillas modernas de la tecnología, en el futuro se desarrollarán inevitablemente programas de voz a texto más eficaces, ya que los algoritmos de aprendizaje automático y los modelos lingüísticos que se utilizan para respaldar dichos programas no dejan de mejorar.