Nuestro Blog

En ocasiones, algunos de nuestros clientes tienen dificultad para encontrar un documento o contenido guardado desde hace mucho y emplean bastante tiempo en la búsqueda hasta que dan con él. Este es el caso, por ejemplo, cuando quieren encontrar una factura escaneada, guardada en PDF, y no recuerdan el nombre del archivo entre miles de facturas escaneadas. Otro caso, podría ser encontrar la imagen de un vehículo siniestrado y no recordar el número de expediente entre millones de clientes.  O un tercer ejemplo, podría ser encontrar la declaración de un testigo en un juicio dentro de una grabación y no se conoce cuál es entre todos los vídeos de la base de datos.

Estos clientes, se sorprenden de que hoy en día se puedan indexar formatos de archivos muy diversos. Incluso que se puedan realizar búsquedas sofisticadas que nos permitan, por ejemplo, encontrar un vídeo por lo que se dice en él, encontrar una imagen por su contenido gráfico o encontrar un PDF escaneado (imagen) por el texto que contiene. Todo esto es posible gracias a una tecnología basada en Inteligencia Artificial que se denomina: Intelligent Document Processing (IDP) o Procesamiento Inteligente de Documentos.

¿Qué significan las siglas IDP?

El Procesamiento Inteligente de Documentos o como más nos gusta llamarlo a nosotros, Procesamiento Inteligente de Contenidos -entiéndase por “contenido” tanto documentos escritos en diversos formatos, imágenes, audios, videos, como planos de edificaciones, etc.-, permite nuevas formas de poner en valor distintos tipos de formatos de documentos gracias, principalmente, a las nuevas posibilidades que la Inteligencia Artificial (IA) y el Procesamiento del Lenguaje Natural (PLN) ofrecen.

Los beneficios del uso de un IDP suelen ser múltiples pero los dos principales podemos decir que son los siguientes. Primero, el ahorro económico que supone gracias a que los sistemas IDP permiten automatizar diferentes procesamientos. Y segundo, nos permite obtener nuevas funcionalidades ya que gracias a la IA y el PLN se puede desarrollar nuevos casos de uso que, hasta ahora, no eran posibles.

A continuación, os exponemos algunos ejemplos que manan de los beneficios que ofrece el uso de sistemas IDP:

  • Clasificar de forma automática la información subida a nuestra web. Un ejemplo podría ser que la web de una aseguradora de vehículos que recibe del usuario una documentación (contrato, DNI, imágenes del vehículo, permiso circulación , etc.) que necesiten clasificar de forma automática esta documentación y guardarla.
  • Extraer información de documentos recibidos en PDF. Imaginemos que en un bufete poseen documentos en PDF escaneados y necesitan encontrar cada uno de los documentos en el que aparece el nombre de su cliente.
  • Buscar imágenes por similitud. Por ejemplo, un diseñador gráfico necesita encontrar en la base de datos de la agencia, archivos de imágenes similares a una gráfica que debe diseñar.
  • Realizar búsquedas sobre el contenido del audio en vídeos. Volviendo al bufete de abogados, imaginemos que éste posee grabaciones de los juicios que llevan y necesitan encontrar en qué vídeo se nombra a su cliente y que hablen de un tema relevante para ellos.
  • Procesar grabaciones. Imaginemos que somos un call center y necesitamos encontrar las opiniones que han expresado sus clientes que sean de interés para mejorar sus servicios.
  • Y muchos ejemplos más.

Existe una gran variedad de funcionalidades y beneficios tener un sistema de IDP. Pero, ¿sabes qué elementos clave debe poseer un sistema de Procesamiento Inteligente de Documentos? A continuación, te enumeramos 10 elementos clave a tener en cuenta a la hora de contar con una plataforma de estas características.

10 elementos clave que debes tener en cuenta al contratar un sistema IDP

Un sistema IDP debe:

  1. Dar soporte a flujos de movimiento de contenidos entre los distintos repositorios de datos internos o externos de la empresa. Supongamos que necesitamos mover unos documentos desde una determinada carpeta a un repositorio en Sharepoint, para ello, se puede definir de forma simple un flujo de movimiento de archivos. Siempre vamos a necesitar mover contenidos entre repositorios y debería hacerse de forma flexible y fácil.
  2. Permitir la configuración de reglas de procesamientos que se puedan encadenar y formar flujos de procesamientos. En el supuesto anterior, además de los flujos de movimiento, necesitamos también un procesamiento como puede ser la extracción de datos (tags) sobre las imágenes que tenemos en el repositorio. Esta configuración puede llevarla a cabo un IDP a través de reglas de procesamientos.
  3. Permitir, también, la configuración de reglas y flujos de notificación por varios canales. El IDP debe facilitar notificaciones cuando exista un procedimiento de interés: supongamos, con el ejemplo anterior, que cada vez que el sistema detecte que en una imagen aparece una persona (procesamiento), nos avise con una notificación vía mail.
  4. Hacer posible el uso del/de los sistema/s de gestión documental de la empresa (ej. SharePoint, ThinkProject, etc). Un IDP es complementario al sistema de gestión documental. Por este motivo, es importante que pueda integrarse con cualquier sistema de gestión documental. Así, como en el ejemplo anterior, se podría hacer que el resultado de los flujos acaben volcándose en un repositorio de Sharepoint.
  5. Hacer factible la definición de los niveles de acceso o roles, tanto a los espacios documentales como a las funcionalidades. El sistema IDP debe tener un sistema de gestión de usuario lo suficientemente flexible para que se puedan definir roles de usuarios y sus niveles de accesos. Por ejemplo, crear un perfil que solo pueda subir documentos u otro perfil con rol de editor de reglas.
  6. Facilitar la incorporación de nuevos modelos de Inteligencia Artificial incluyendo el acceso a servicios de otras inteligencias de terceros. La Inteligencia Artificial y el Procesamiento del Lenguaje Natural evolucionan a un ritmo frenético. Para no quedarnos atrás, un IDP debe permitir incorporar nuevos modelos o acceder a los últimos servicios cognitivos disponibles.
  7. Hacer posible la incorporación de nuevos accesos a repositorios de datos ya sea, a través de apis, ETL u otros sistemas. Lo que es válido hoy, no tiene por qué serlo mañana. Siempre vamos a necesitar incorporar nuevas fuentes de datos (tanto externas como internas) y el sistema IDP debe permitir hacerlo. Así, por ejemplo, puede que descubramos una nueva api de open data relevante para nuestros organización y el IDP debe permitir la incorporación de estos nuevos datos.
  8. Incluir dashboards para que el administrador pueda evaluar mediante KPIs (métricas) el uso de la plataforma. Es importante para los administradores de la plataforma tengan acceso a métricas sobre uso de la plataforma. La forma ideal para ello es a través de un dashboard.
  9. Disponer de un área de administración para poder configurar adecuadamente la plataforma por los administradores de la misma. Como ya se ha mencionado antes, el sistema IDP es dinámico (nuevos flujos, procesamientos, notificaciones, roles, etc.) y debería tener un área de administración para que esta gestión sea fácil de llevar a cabo.
  10. Permitir desarrollos sobre la misma. Por muy flexible que sea una plataforma, siempre va a existir la necesidad de desarrollos ad-hoc. Por ultimo, uno de los elementos más relevantes es que, por muy potente que sea la plataforma IDP, siempre nos encontraremos con casos de uso que no serán soportados de forma directa por la misma. En esto casos, debemos de chequear si es posible contratar desarrollos a medida en el sistema IDP para cubrir estos casos de uso y que, el precio de los mismo, no sea desorbitado. Cuanto más flexible sea el proveedor, mejor. Esto permitirá adaptar cualquier aspecto de la plataforma IDP: nuevas pantallas, nuevos procesamientos, nuevos flujos, etc.

banner netconten idp

Hoy en día, con la proliferación de tecnologías encaminadas a la estructuración de grandes volúmenes de datos (Big Data) y el desarrollo de soluciones basadas en Inteligencia Artificial, las organizaciones tienen a disposición una «inteligencia» que les permite obtener una ventaja frente a la competencia, al extraer conocimiento relevante para su negocio. Estas tecnologías ofrecen múltiples ventajas, por lo que a continuación os mostramos como el uso del Big Data y la Inteligencia Artificial a través de estas herramientas diseñas para ello.

Big Data y pricing. Monitorización de precios, modelización y gestión.

Una de las principales razones por las cuales los consumidores suelen hacer sus compras en el mundo online es la de beneficiarse de precios más ajustados que en los establecimientos físicos. Este hecho nos hace platearnos que, disponer de una herramienta de gestión y control de precios en Internet sea una tarea esencial para poder tomar decisiones en las estrategias de fijación de precios online.

Con una plataforma para la monitorización de precios se puede reducir la incertidumbre en la toma de decisiones en torno a una estrategia de pricing. Existen herramientas como netPrice que recolecta una gran cantidad de precios e información sobre productos y servicios, tanto internos como de la competencia (big data)  para un posterior análisis de sus fluctuaciones gracias a sus modelos de inteligencia artificial. Esto facilita que se entienda mejor el mercado y permita anticiparnos a la demanda, gracias a alertas tanto de oportunidades como amenazas en relación a los precios de nuestros productos/servicios.

MONITORIZACIÓN MASIVA DE PRECIOS Y DETECCIÓN DE OPORTUNIDADES Y AMENAZAS

¿Por qué extraer precios? La extracciones masivas de precios (en algunos casos más de 150 millones de precios al mes) y su modelado para detectar aquellas amenazas y/o oportunidades, debe requerir la atención de cualquier empresa. Esta monitorización de precios permite centrar el esfuerzo solo en aquellos precios (propios y de la competencia) que realmente puedan tener un impacto en la cuenta de resultados de la empresa.

BUSCADORES DE PRECIOS

En aquellos sectores con fuerte dependencia de buscadores de precios (ej. seguros), la monitorización masiva de precios, propios y de la competencia en estos buscadores, mediante la creación de modelos matemáticos descriptivos y predictivos, permiten que una empresa pueda adelantarse a la competencia obteniendo una ventaja diferencial gracias al conocimiento que esta modelización les aporta.

Una herramienta como Netprice facilita al departamento comercial establecer políticas de precios en base a técnicas de Revenue o Yield Management, o lo que es lo mismo, optimizar su gestión de precios en función de la demanda y la disponibilidad de artículos. Es fundamental la optimización del precio del producto/servicio para lograr maximizar los ingresos. Tener a disposición una plataforma con estas características se ha convertido en un elemento necesario e indispensable para la obtención de un control total de la gestión de grandes volúmenes de precios en Internet.

GEOMARKETING: localizaciones óptimas y segmentación inteligente de consumidores.

Una de las ventajas del análisis conjunto de los datos demográficos, económicos y geográficos es la posibilidad de realizar estudios de mercado para rentabilizar las estrategias de marketing llevadas a cabo por las empresas.

El análisis de este tipo de datos se puede llevar a cabo a través del Geomarketing. Tal como su propio nombre indica, Geomarketing es una confluencia entre geografía y marketing. Se trata de un sistema integrado de información –grandes datos de diversa índole-, métodos estadísticos y representaciones gráficas orientados a dar respuestas a cuestiones de marketing de forma rápida y sencilla.

MODELOS DE VENTA

Un ejemplo pueden ser proyectos de distintos sectores cuyo objetivo sea crear modelos geoespaciales avanzados que permitan predecir cómo influyen determinados elementos (competencia, polos de atracción, demografía, horarios…) en la facturación de los comercios con vistas a detectar potenciales áreas de mejora.

El resultado de estos modelos se puede visualizar sobre un sistema de información geográfica, como como ser netgeomarketing de ITELLIGENT, de forma que permita a la empresa poder iterar con el modelo y ver los resultados de una forma muy visual.

FRANQUICIAS

Otro ejemplo podemos verlo en aquellos proyectos en los que el objetivo es la detección de ubicaciones óptimas para el establecimiento de una franquicia. En ITELLIGENT se ha desarrollado una metodología propia y algunas herramientas de soporte a la decisión sobre sistemas de información geográfica que permite a las empresas tomar decisiones informadas sobre la ubicación óptima de sus franquicias

¿Para qué sirve una plataforma de geomarketing?

  • Tomar decisiones de negocio en función de la localización de su mercado en un área geográfica
  • Planificar la estrategia de expansión, optimizar una red comercial, de punto de venta o red de distribución.
  • Determinar zonas de influencia y cobertura geográfica.
  • Evaluar perfiles de población (targets o clientes)
  • Descubrir dónde y cómo llegar a tus clientes para llevar a cabo acciones de marketing.
  • Averiguar puntos calientes de ventas (hot ubiety)
  • Detectar y evaluar dónde se encuentra la competencia así como calcular su cobertura y área de influencia.

¿Crees que ha llegado el momento de dar el paso? Démoslo juntos. ¡Contacta con nosotros!

A lo largo de nuestra experiencia en proyectos de Vigilancia Tecnológica (VT) destacamos que cada uno de ellos posee necesidades diversas en base al sector, los usuarios o la finalidad para la que se desarrollan. Estos proyectos de VT solemos abordarlos a partir de nuestra plataforma netitelligent adaptándolas a las necesidades de cada uno de ellos. Sin embargo, existen una serie de elementos que marcan la diferencia. En este post, abordaremos qué ocho elementos son claves para el éxito de una plataforma de Vigilancia Tecnológica:

Por norma general, las plataformas de VT siguen en mayor o menor detalle la Norma UNE 166006 – Actividades de Investigación, Desarrollo Tecnológico e Innovación (I+D+i). Esta Norma, se centra en:

vigilancia tecnologica desarrollo e innovacion

A partir de la identificación de las necesidades de información – algo que habitualmente es complicado y que no se suele realizar a un nivel de detalle adecuado-, el siguiente paso es identificar aquellas fuentes de información que puedan ayudarnos a cubrir las necesidades identificadas. A partir de estas fuentes, hay que generar con la periodicidad adecuada la información relevante y hacerla llegar a los consumidores de la misma.

ELEMENTOS CLAVE PARA EL ÉXITO DE UN PROYECTO DE VT

1.- IDENTIFICACIÓN DE LAS NECESIDADES

Cuando las necesidades de un proyecto de VT no están claras suele ser una pasarela hacia el fracaso. Para evitarlo, debemos ser capaces de:

  • Concretar qué preguntas queremos que le sistema nos ayude a responder
  • Identificar los perfiles que usarán la información -ya que, en muchas ocasiones, cada pregunta está ligada a un determinado perfil-.

Para saber si hemos realizado esto correctamente, podemos asociar a cada necesidad de información, una métrica que nos permita chequear su cumplimiento.

itelligent objetivos en proyectos VT

2.- SELECCIÓN DE FUENTES TRONCALES

Una vez definidas las necesidades del proyecto de VT es fundamental identificar un conjunto reducido de fuentes que nos permitan cubrir las necesidades detectadas y que sirvan de “core” para el sistema de Vigilancia Tecnológica. La selección de estas fuentes no solo implica su identificación, sino lo que también llamamos “Due-Dilligence” de las fuentes. Es decir, una vez que tenemos identificadas un conjunto de fuentes debemos responder a las una serie de preguntas como:

  • ¿Es viable técnicamente extraer los datos de las fuentes con la frecuencia que necesitamos?
  • ¿Es viable, a nivel legal, la extracción de los datos de las fuentes seleccionadas?
  • ¿Es posible extraer los datos de las fuentes seleccionadas y cumplir con el RGPD u otras políticas al respecto vigentes?
  • A nivel económico, ¿es posibles la extracción de los datos de las fuentes seleccionadas con la frecuencia que necesitamos?

Por lo general, la elección de las fuentes troncales suele estar acorde al ciclo de vida de un proceso de innovación, tal como aparece en la imagen.itelligent fuentes proyectos VT

3.- FILTRADO Y LIMPIEZA DE FUENTES TRONCALES

Haber identificado fuentes troncales y haber extraído datos de las mismas, no implica que éstos estén libres de ruido. Por ello, es conveniente que nuestra plataforma de Vigilancia Tecnológica nos permita incorporar términos y operadores para:

  • Incluir resultados a la plataforma, si se activan (operadores blancos)
  • O desechar resultados a la plataforma, si no se activan (operadores negros)

Una forma muy eficiente de identificar qué elementos deben ser descartados es a través de visualizaciones de datos como las nubes de tags. Este tipo de visualizaciones es fundamental que estén presentes en una plataforma Vigilancia Tecnológica.

itelligent limpiar datos proyectos VT

4.- ARMONIZACIÓN DE LAS FUENTES

Debemos tener en cuenta que, para poder utilizar datos de distintas fuentes sobre un mismo interfaz, debemos armonizar cada fuente a un estándar común. Por ejemplo, si nuestra interfaz posee una ficha o elementos como una tabla que posea un campo llamado “título”, debemos de disponer en la plataforma la posibilidad de asociar este elemento de cada fuente -mapping- al campo “titulo”. Os mostramos un ejemplo:

itelligent armonizar datos proyectos VT

5.- DETECCIÓN DE TEMÁTICAS EMERGENTES

Una funcionalidad muy interesante que siempre debe incorporar nuestra plataforma VT es la detección de temáticas emergentes con posibilidad de filtrado semántico. Esto nos sirve para saber si existen temáticas que estén cobrando notoriedad y, habitualmente, esto implica la aparición de innovaciones. Por este motivo no solo es importante que nuestra plataforma VT permita este descubrimiento sino que nos permita también analizar la evolución temporal de aquellas temáticas que nos interesen más. Por ejemplo, la plataforma nos puede identificar temáticas emergentes como “Machine learning” o “blockchain” cuando comenzaron a aparecen en las distintas fuentes pero, también, nos debería permitir analizar su evolución en el tiempo.

itelligent tematicas emergentes vt

6.- EXPLOTACIÓN DE SEMÁNTICAS Y RELACIONES

En muchas ocasiones, además de explotar la información semántica contenida en los documentos, es posible explotar las identidades que aparecen en dichos documentos. Esto, abre un abanico de posibilidades muy interesantes en el área de la Vigilancia Tecnológica: podemos determinar relaciones de coautoría entre autores de artículos científicos o relaciones entre entidades consorciadas en proyectos de investigación.

Una plataforma de VT debe ser capaz de poner en valor estas relaciones entre entidades y la semántica asociada a los textos que está generando (ej. Articulo científico, proyectos, …) permitiendo, mediante potente visualizaciones, identificar de una forma simple la información relevante que esta combinación de relaciones semánticas nos puede descubrir.

itelligent grafo de relaciones vt

Utilizar grafos nos permite de forma muy simple detectar aquellos organismos consorciados con otros organismos con proyectos de innovación y detectar para distintas temáticas aquellas organizaciones con un mayor número de relaciones, esto es los denominados HUB. Lo que facilita encauzar el esfuerzo para establecer nuevas relaciones al poder identificar vías de accesos a estos hubs.

7.- SISTEMAS DE ALERTAS

En cualquier plataforma de VT nos encontraremos con usuarios que no van a disponer del tiempo necesario para interactuar de forma sistemática con la misma. Para generar engagement a estos usuarios es necesario conectar estas fuentes con un sistema avanzado de alertas.
Un problema habitual de los sistemas de alertas es que son difíciles de adaptar a las necesidades de cada usuario. Algo típico es que un usuario reciba un exceso de alertas y éste no acceda a las mismas por saturación. También ocurre que un usuario apenas reciba alertas y pierda información relevante para este. Por este motivo, lo ideal es que una plataforma de VT posea alertas inteligentes que permita:

  • Personalizar alertas en base a cada usuario según su área de interés
  • Detectar, mediante Inteligencia Artificial, cuándo una información puede ser relevante para este usuario y enviársela.

Además, de todo esto, es muy útil tener feedback de este usuario para poder adaptar la información a sus necesidades concretas.

8.- FACILIDAD PARA INCORPORAR NUEVAS FUENTES

Puede que con el tiempo un proyecto de VT requiera incorporar nuevas fuentes. Por ello es importante que la plataforma tenga un mecanismo que pueda dar de alta nuevas fuentes que puedan ser relevantes para la Vigilancia Tecnológica.