AUTOR: Carlos Rivas, Sección: Nvo-P01:N1 |
AÑO: 2022 |
Línea de investigación: Evolución tecnológica, Sublínea: Nuevas realidades
Introducción
Recientemente, me encontré con la experiencia de una influencer que comentaba su historia en Instagram, de cómo ella generaba ingresos desde su teléfono móvil. Obviamente esta historia me llamó la atención, como también pudo atraer miles de personas, enganchadas en su experiencia personal.
Allí, la influencer contaba que una empresa japonesa especialista en desarrollo de sistema con inteligencia artificial estaba pagando una modesta suma de dinero para aquellas personas comprometidas a colaborar, en enseñar a su algoritmo a comprender el estado del clima del mundo desde cada una de sus ciudades de origen.
¿De lo que se trataba era de educar a un algoritmo? Pues sí, este algoritmo aprendía, tanto de las respuestas estructuradas como abiertas, por lo que tenía la capacidad de captar datos cualitativos y cuantitativos. Estas experiencias se han venido estudiando en campos universitarios, como por ejemplo en los trabajos de aprendizajes flexibles de algoritmos según Pimentel, et al (2022).
También llama la atención, desde mi óptica como estudiante de Doctorado en TIC, que las metodologías de desarrollo de software han evolucionado notablemente desde las ciencias duras hacia las blandas, lo cual las hace ser más comprensibles. Obviamente, esto no significa que disminuya su complejidad, todo lo contrario. Sin embargo, el desarrollo de potentes librerías abiertas de líneas de programación por parte de la industria del software, han facilitado la operacionalización de muchos proyectos de manera relativamente rápida.
Otros procesos para encontrar patrones digitales, enfocan su estrategia en escanear superficies digitales o físicas en la búsqueda de rastros de datos, para luego determinar tendencias que, desde una mente muy educada o analógica, tenga la profundidad o el nivel de abstracción para comprender los significados de aquellos patrones o coincidencias. Hoy, a ese ejercicio humano desde un enfoque de tecnologías se le llama ciencia cognitiva. Entonces, estamos ya inmersos en otro nivel de vida, incluso desconocido para la mayoría de las personas. Nosotros enseñamos a los algoritmos y luego nos superan en ciertas condiciones.
Aplicaciones de software populares que aplican técnicas para encontrar patrones digitales.
La Inteligencia artificial y el aprendizaje automático de Atlas.ti
Uno de los softwares más conocidos a nivel de instituciones educativas es el Software Atlas.ti. El cual es una herramienta TIC de apoyo basado en Inteligencia artificial y aprendizaje automático. Se pueden desarrollar con esta herramienta, desde simples análisis hasta complejos proyectos de investigación con un nivel de profundidad sustancial.
La virtud de este software es su enfoque cualitativo y permite el análisis de cualquier tipo de documento desde fuentes de datos diversas como las siguientes: Textos, imágenes, videos, audios, etc.
La metodología de trabajo consiste en codificar o marcar desde una comprensión cognitiva avanzada los hallazgos en su fuente de datos, lo cual va generando patrones digitales que permiten que el algoritmo de la plataforma aprenda y genere cierto tipo de autonomía para escalar la velocidad de codificación y comprensión de todo el cuerpo del documento en cualquiera de los soportes digitales.
Para los investigadores independientes, como para los académicos, cuyos enfoques metodológicos están orientados a cualificar para comprender sus propósitos de estudios, esta herramienta llegó para generar más profundidad al procesamiento y análisis de los datos.
Entonces, vincular esta herramienta con nuestra línea de investigación resulta fundamental debido al nivel de exigencia de un trabajo de grado a nivel doctoral.
Desde mis experiencias analógicas como investigador, me vi en la obligación de capacitarse por alrededor de seis meses de manera convencional o tradicional en metodología cualitativa para el manejo de los recursos naturales, también vía Online en el Centro Agronómico Tropical de Investigación y Enseñanza – CATIE Costa Rica. Todo el proceso de la metodología respecto al tratamiento de los datos se aplicó en un entorno analógico a través del análisis temático, utilizando pizarra, borrador, trocitos de papel, etc.
Esta realidad, afortunadamente, en mi nuevo ciclo como investigador, debe cambiar significativamente con el empoderamiento del uso de las TIC. Porque descubrir patrones conversacionales (categorías de análisis) con la ayuda de la Inteligencia artificial y el aprendizaje automático me permitirá liberar tiempo para dedicarlo a otras actividades operativas donde aún la IA no logra llegar.
Entonces, las tecnologías se convierten en una herramienta que genera productividad y agudizan la capacidad cognitiva de los humanos al permitirnos incluso comprender a mayor profundidad los hallazgos que incluso podrían pasar por desapercibidos a la mirada analógica humana.
Inteligencia de negocios basada en descubrir patrones digitales de consumo desde las redes sociales.
Hacer un estudio de mercado confiable hace una década atrás, representaba un desafío para las empresas. Primeramente, por los costos de contratación de empresas de servicios, especialistas en estudios de mercado y por la otra, la necesidad de obtener datos confiables para producir información de calidad para la toma de decisiones.
Esta realidad cambió radicalmente desde la entrada de la inteligencia artificial con el uso de software avanzados capaces, por ejemplo, de escanear los contenidos de las redes sociales en búsqueda de encontrar patrones de comportamiento de consumo. La gestión de la incertidumbre por la escasa información, dejó de ser un problema para las empresas innovadoras que se proponen lanzar nuevos productos al mercado.
En este sentido, Carranza, C. (2017), utilizó redes neuronales artificiales (redes de Hopfield) para obtener patrones de consumo a través de un sistema de información web capaz de extraer datos de redes sociales. Con este algoritmo previamente entrenado para determinar patrones digitales, el autor identificó publicaciones de textos con significados similares para obtener tendencias de consumo geo referenciados para determinados productos.
El sistema fue desarrollado bajo la metodología de Software Scrum-Agile, administrado bajo la guía de buenas prácticas del PMI.
Al desplegar y monitorear los resultados demostró, cómo el sistema rastreó o escaneó las publicaciones de las redes sociales, y cómo estas fueron procesadas generando información, para finalmente generar un patrón de comportamiento de consumo para un producto en particular. Convirtiéndose así en una herramienta útil para la toma de decisiones en las organizaciones.
Entonces, una vez más estas experiencias demuestran cómo las tecnologías aumentan la productividad de las empresas en todos los sentidos. Porque, la obtención de una licencia de software para el análisis del mercado desde los contenidos de las redes sociales se puede convertir en una actividad rutinaria que permite ganar inteligencia de negocios a unos costos significativamente bajos y fácilmente manejables por el departamento de IT.
Con estos dos antecedentes, ahora podemos adentrarnos a comprender cómo se ha llegado a desarrollar estas tecnologías capaces de interpretar los comportamientos y emociones humanas.
El procesamiento del lenguaje natural (PNL)
Se trata de una disciplina que combina distintas ciencias y técnicas para facilitar que las computadoras personales y los softwares comprendan y procesen la forma de comunicación de los humanos.
Según Díaz Roussel, N. (2020), las herramientas para análisis de sentimientos y resumen automáticos están disponibles en librerías de acceso gratuito vía API como las siguientes:
- MeaningCloud
- Google Cloud Natural Language
- Microsoft Azure Text Analytics
- Sumy
Estas tecnologías han desarrollado conocimientos significativos en referencia a la Comprensión del lenguaje natural (CLN), Generación del lenguaje natural (GLN), Recuperación de información (RI), Traducción automática, Resumen y clasificación de textos y Detección de sentimientos o emociones. Y lo que me parece más importante de destacar es la libre accesibilidad de uso para la sociedad del conocimiento.
Martínez-Barco. et al (2013), desarrollaron trabajos importantes sobre el replanteamiento de la filosofía de las Tecnologías del Lenguaje Humano (TLH) desde el enfoque de la multidiversidad, la complejidad, la multidimensionalidad para dar un tratamiento mejorado a datos no estructurados con multi-modalidad, multilingualidad y diferentes grados de formalidad, acercando estas tecnologías a las necesidades reales de los usuarios.
El trabajo de estos autores, se fundamentó no solo en comprender, también se propusieron generar lenguaje humano e integrarlo en una sola unidad o modelo basado en la deconstrucción de la lengua, dicho de una manera más clara, deshacer analíticamente algo para darle una nueva estructura.
Entonces, a partir de las TLH, se derivan las siguientes técnicas o herramientas:
Generación de lenguaje natural (GLN): Conjunto de herramientas y técnicas capaces de producir texto comprensible en lenguaje natural a partir de una representación no lingüística de la información, generalmente, desde bases de datos o fuentes de conocimiento. Por ejemplo: Generación automáticas de resúmenes de texto, traducción automática en diferentes idiomas, etc.
Compresión del lenguaje natural (GLN): Proceso de extracción, de manera automática, del significado de un texto dado y obtener una representación estructurada del mismo para su uso posterior.
Ambas tecnologías funcionan como una sola unidad simétrica, sin embargo, el desarrollo del conocimiento en esta área, se hace de manera aislada para indagar a profundidad los alcances en sus aportes hacia la optimización y funcionamiento de los algoritmos.
A simple vista, todos estos conceptos abstractos resultan difíciles de comprender por parte de personas curiosas en aprender. Afortunadamente vivimos en la era del conocimiento, y en paralelo al desarrollo de estas tecnologías existe un acompañamiento corporativo y de algunos afortunados profesionales en el desarrollo de software que están dedicados a enseñar el uso de estas herramientas para adaptarlas a los requerimientos de partes interesadas en adoptar estas tecnologías. Por ejemplo: Prezi, Udemy, Coursera, entre otros.
Entornos favorables para el Aprendizaje de Algoritmos: Uso de herramientas.
Tenemos la necesidad de profundizar en el tema de la comprensión y generación de lenguaje natural en la misma medida en que se va modernizado la ingeniería del software. De lo que se trata es de, una nueva o renovada manera de comunicar el conocimiento digital tomando como base el: ¿qué decir?, ¿cómo decirlo? y ¿para qué decirlo? según lo indicado por Martínez-Barco. et al (2013).
Conclusiones
René Descartes sirve de inspiración aún en nuestros tiempos para dar soluciones en el desarrollo de las tecnologías de lenguaje humano. Su principio del análisis, que consiste en dividir el objeto de estudio en tantas partes menores como sea posible para poder resolverlo mejor, fue la clave para desfragmentar los contenidos (textos, videos, imágenes, audios, etc.), en micro fragmentos digitales de datos llamados L-Brick (Language Brick, o Ladrillo de Lenguaje), para luego llevarlos a un espacio caóticamente representado, para que desde allí “determinar” patrones o tendencias que a través del aprendizaje automático comprendan esos datos, los relacionen con el mundo humano de las emociones, sentimientos y así se logre construir nuevo conocimiento. Se trata entonces de dotar de conocimiento y por tanto inteligencia y autonomía a un algoritmo a partir de un sistema digital complejo.
Resulta inevitable la vinculación de estas nuevas tendencias tecnológicas con mi línea de investigación: Evolución tecnológica, Sublínea: Nuevas realidades. Tal y como lo comenté al inicio de este breve ensayo, el primer beneficiario somos nosotros mismos como investigadores del conocimiento. Me refiero al software Atlas.ti.
En este sentido, el internet supera los límites de los entornos físicos. Ya no hay excusas para desarrollar conocimiento en el contexto de las TIC. Las grandes empresas tecnológicas han liberado las líneas de código por un beneficio común. Incluso con capacidades para agregar valor.
Bibliografía
Díaz Roussel, N. (2020). Estudio comparativo de herramientas para tareas de Procesamiento de Lenguaje Natural (Doctoral dissertation, Universitat Politècnica de València).
Huamán Carranza, C. E. (2017). Obtención de patrones de consumo mediante redes sociales y redes neuronales para la toma de decisiones en organizaciones.
Martínez-Barco, P., Ferrández, A., Tomás, D., Lloret, E., Saquete, E., Llopis, F., … & Romá-Ferri, M. T. (2013). LEGOLAND: Técnicas de deconstrucción aplicadas a las Tecnologías del Lenguaje Humano. Procesamiento del lenguaje natural, (51), 219-222.
Pimentel, J. J. A., & Ibarra, S. P. C. (2022). EpAA: Entorno para el Aprendizaje de Algoritmos. Una experiencia educativa desde la perspectiva del aprendizaje flexible. Edutec. Revista Electrónica De Tecnología Educativa, (79), 63-79.