Acepto

COOKIES

Esta web utiliza cookies técnicas, de personalización y de análisis, propias y de terceros, para anónimamente facilitarle la navegación y analizar estadísticas del uso de la web. Obtener más información

Inteligencia artificial, robótica y la importancia del dato

  • Opinión

Jesús Cabañas, Regional Sales Manager de PFU (EMEA) Limited en Iberia

Las noticias falsas o fake news circulan diariamente por Internet dejando tras de sí toda una serie de afirmaciones y desmentidos en torno a la actualidad política, económica y social. El auge de este fenómeno (que solo en el año pasado aumentó un 365%, según un estudio global) ha llevado el foco de atención hacia la importancia de contar con una fuente de información fidedigna. Cada vez somos más los usuarios que buscamos entre diferentes medios para extraer lo que podemos considerar como `dato fiable´, y esto lo intentamos conseguir interpolando la información obtenida de las diferentes versiones de una misma noticia. Así, con estos datos de confianza resultantes, podremos tomar decisiones acertadas o al menos bien fundamentadas en distintos ámbitos.

Más sobre Transformación Digital 

Moderniza los servicios de RR.HH. y aumenta la satisfacción de tus empleados

SAP HANA Platform: despliega todo su potencial en tu negocio

Smart cities, conectando puntos para crear un futuro más inteligente 

Mejores prácticas para implementar una plataforma ágil

NetOps conoce a DevOps. Estado de la automatización de red

Cómo implementar automatización DevOps y lograr una verdadera agilidad cloud

Esta misma importancia de la información verificada en nuestro día a día ayuda a entender también la relevancia que tiene el “dato fiable” en el mundo de la tecnología y la gestión documental y, por propia evolución, sobre dos de los pilares de la TI moderna que marcan el futuro: la inteligencia artificial (IA), en cuanto a análisis semánticos, y la robótica, con la automatización de procesos (RPA).   

La IA y la RPA apoyan sus algoritmos de decisión sobre datos que serán extraídos, entre otras fuentes, de documentos en papel que han sido digitalizados. Entidades públicas y privadas están arrancando todo tipo de proyectos en sectores tan diversos como el de la seguridad, la sanidad, la lucha contra el fraude y el mundo financiero. En estos sistemas, tener un “dato fiable” es crítico para la toma de decisiones, pero se están encontrando con un gran problema: la baja fiabilidad de los datos procedentes de archivos históricos.

Evolución en el estándar de calidad de digitalización

Esta circunstancia se debe a que, en el pasado, los responsables de TI y operaciones enfocaron la digitalización de documentos con una visión muy cortoplacista. Esta se orientaba más al cumplimiento de requerimientos legales que como soporte de una mejora de la eficiencia operativa y de la gestión de la información dentro de las organizaciones. Por tanto, no existía un estándar de calidad más allá del criterio de tener imágenes más o menos reconocibles a los ojos de una persona mediante el uso de la fotocopia o el fax.

Con la irrupción de nuevas tecnologías como la IA y la RPA, que demandan una alta fiabilidad del dato, el estándar ha cambiado y podríamos reformularlo como la “filosofía del robot”, es decir, la necesidad de obtener una imagen fiel del documento que permita esa extracción de calidad de los datos contenidos.

El cambio de modelo fue muy bien entendido hace años por fabricantes de soluciones que requerían de datos de calidad, tales como en las áreas de reconocimiento automático de facturas, documentos de identificación (IDs), lectura de marcas o formularios. En numerosas ocasiones, el fabricante del software de lectura, conocedor de los posibles problemas, especificaba claramente el modelo de escáner recomendado y la tecnología u opciones necesarias, pues una mala calidad de los datos obtenidos pondría en entredicho la fiabilidad de la solución, y podría llevar al traste el proyecto y la reputación de la compañía.

No hay decisión buena con dato malo

La necesidad de contar con datos fiables se comienza a extender a diferentes áreas al albor de la IA y la robótica. El gran problema es que a la hora de realizar la implantación de estas tecnologías se encuentran con un legado de imágenes con una calidad incierta, y la baja fiabilidad de los datos no se lleva nada bien con la toma de buenas decisiones.

Una solución idónea sería aquella que permita aplicar algoritmos inteligentes para la optimización de imágenes. Estos algoritmos pueden hacer milagros sobre imágenes en bruto, pero si la imagen en origen es defectuosa o con una pobre conversión del documento a blanco y negro, como sucede en el 90% de los casos, poco podrá mejorar el resultado final.  

El sistema LexNET, la aplicación GEISER y el 90% de las plataformas gubernamentales y autonómicas trabajan en blanco y negro, entre otros motivos, por la limitación de tamaño de archivos impuesto por entidades de certificación y firma, así como por la propia operatividad de los sistemas en entornos con ancho de banda limitado.

Llevado a la práctica, nos encontraremos con que en el momento en que se pongan en marcha las iniciativas en IA o RPA, que necesitan de datos de calidad y fiables, estas no funcionen tan inteligentemente como se esperaba y la redigitalización resulte inasumible.

Es imprescindible por tanto que antes de lanzar iniciativas de IA o robótica, los CIOs y departamentos de operaciones comiencen a preocuparse por cosas tan básicas como la calidad del dato, el modo en que se captura la información en papel o en el Coste Total de Propiedad (TCO) de la captura de información frente al precio de página por minuto (pppm). De este modo, se valorarían elementos tecnológicos que ayuden a obtener datos de calidad, como el iDTC1 para la discriminación inteligente entre pixel blanco y el iMFD2 para la detección de pérdida de información por alimentación múltiple, incluidos en escáneres profesionales, por encima de otros factores como las páginas por minuto (ppm) y el coste del equipo, que ayudan verdaderamente a una óptima digitalización y garantizan la fiabilidad del dato.

1iDTC (Intelligent Dynamic Threshold): Tecnología que permite una gestión inteligente de los umbrales de discriminación ntre pixel blanco y negro, enfocada a extraer la información contenida en documentos digitalizados.

2iMFD* (Intelligent Multi Feed Detection): Tecnología que permite la detección de pérdida de información durante el proceso de escaneo detectando a través de sensores ultrasónicos cuando dos hojas están pasando juntas por el ADF. Esta tecnología permite discriminar entre documentos de grosor variable tales como documentos con etiquetas pegadas (dobles alimentaciones falsas) y dobles alimentaciones reales sin interrumpir el proceso de escaneo.

Jesus Cabañas, responsable de ventas para la región de Iberia de PFU Limited