Preguntas frecuentes

¿Qué es la inteligencia artificial?

Hay muchas definiciones, pero podríamos decir que es un área de la investigación en computación en la que se intenta entrenar a los ordenadores para que lleven a cabo tareas que antes solo podían hacer humanos.

También se podría definir como lo que da a las máquinas la capacidad de aprender para adaptarse y tomar buenas decisiones como lo haría una persona. Es tecnología que acerca a las máquinas a modelos de pensamiento, percepción y acción que las hace parecer inteligentes. Además, no es solo tecnología que “hace” cosas, también aprende a hacerlas.

¿Cómo clasificamos la inteligencia artificial?

En la literatura científica se han definido tres tipos de inteligencia artificial: la inteligencia artificial débil (narrow artificial intelligence), la fuerte (general artificial intelligence) y la superinteligencia o singularidad.

La inteligencia artificial débil está creada para realizar una tarea concreta, por muy compleja que esta pueda ser. Por ejemplo, sistemas de recomendación en tiempo real, sistemas adaptativos para control automático de naves, asistentes virtuales, etc.

La inteligencia artificial fuerte es aquella es capaz de realizar un amplio rango de actividades propias de un humano. Entre ellas, inferir nuevo conocimiento o resolver problemas a los que no ha sido expuesta previamente.

La superinteligencia es aquella que, además, adquiere consciencia y es capaz de superar al humano en tareas cognitivas.

¿Cómo es la relación de las personas con la inteligencia artificial?

La primera relación entre las personas y esta tecnología surge del imaginario colectivo que desde niños hemos ido almacenando gracias a las novelas, películas y videojuegos.

Gracias a estas creaciones humanas, todos tenemos una idea preconcebida de qué es la inteligencia artificial. Por el necesario conflicto de las obras de ficción, cuando escuchamos el término nos imaginamos sistemas como Skynet acompañado de robots Terminators acabando con la humanidad. Nada más lejos de la realidad actual, pensemos mejor en que la inteligencia artificial es algo parecido a un Excel avanzado que nos ayuda en ciertas tareas y que la combinación de ambas inteligencias resuelve mejor ciertos problemas.

Desde el punto de vista del proceso de información, los humanos somos más adaptables al análisis de información desesctructurada y al reconocimiento de circunstancias poco usuales y sus consecuencias. En cambio, las máquinas son adecuadas para analizar grandes cantidades de datos y extraer patrones, además de que lo hacen con mayor grado de exactitud que los humanos.

Si hablamos de robots podemos referirnos a la paradoja de Moravec, que viene a decir que lo que es fácil para el humano es difícil para las máquinas y viceversa.

En resumen, como ha ocurrido en todas las revoluciones tecnológicas, el uso de la inteligencia artificial está sustituyendo algunos puestos de trabajo que son susceptibles de ser automatizados y está creando otros, pero, como es evidente, no va a acabar con nuestra forma productiva ni mucho menos con nuestra especie.

¿Cómo impacta la inteligencia artificial en la sociedad del presente?

El robotic process automation ya está sustituyendo personas por máquinas, al igual que los asistentes virtuales en los call centers. Por otra parte, existe una demanda no cubierta de profesionales que sepan crear y mantener sistemas relacionados con los datos y su tratamiento, como matemáticos o ingenieros que sepan trasladar el conocimiento específico de cualquier disciplina a las máquinas.

Como en cualquier revolución, habrá empleos de baja cualificación que desaparecerán y otros que se crearán. A finales del siglo XIX el 40% de la población de Estados Unidos se dedicaba a la agricultura. Un siglo después, solo el 2%. La pregunta es qué debemos hacer para que los “granjeros” del siglo XXI no se queden fuera del mercado laboral.

Esperemos que los gobiernos lo estén analizando y tomen las medidas necesarias. Por ejemplo, a finales del siglo XIX en Estados Unidos prohibieron el trabajo a los menores de edad y los escolarizaron creando la fuerza laboral del futuro. En nuestros días gobiernos como el de Finlandia están formando a toda la población en inteligencia artificial con cursos gratuitos.

¿En qué grado de evolución está la inteligencia artificial?

Según la encuesta sobre el estado del arte de la inteligencia artificial que realizamos en 2020, profesionales de diversos ámbitos dan una puntuación de 4,9 sobre 10 al nivel de desarrollo de la inteligencia artificial en la actualidad.

La Ley de Amara nos dice que tendemos a sobrestimar el efecto de la tecnología en el corto plazo y subestimarla en el largo plazo. La realidad es que la narrow AI está avanzando rápidamente, pero todavía estamos lejos de la simulación del cerebro humano.

Si consideramos la inteligencia artificial como una mezcla de matemáticas, computación y conocimiento, parece lógico pensar que un cambio en alguno de los aspectos anteriores podría acelerar el avance. Temas como el quantum computing o la evolución del natural language processing y el natural language generation podrían cambiar las perspectivas y avanzar en el uso masivo.

Con respecto a los emuladores del cerebro humano, autores reputados como Robin Hanson opinan que aún nos faltan de dos a cuatro siglos para que las máquinas desarrollen algo parecido a nuestras capacidades humanas.

 

 

 

¿Cómo está cambiando la inteligencia artificial el desarrollo de fármacos?

En nuestros días, uno de los principales avances que la inteligencia artificial está llevando a la industria farmacéutica es el descubrimiento y desarrollo de nuevos fármacos a través de distintos procesos:

  • Ayudando a los investigadores a descubrir fármacos.
  • Desarrollando medicamentos más asequibles a través de la creación de perfiles polifarmacológicos.
  • Encontrando formas más rápidas de tratar enfermedades.
  • Ayudando a los científicos a mejorar los resultados en el descubrimiento de enfermedades raras.

Las aplicaciones de esta tecnología son innumerables y de un valor incalculable, como, por ejemplo, para rastrear y predecir brotes epidemiológicos utilizando toda la información disponible en múltiples fuentes —datos oficiales, imágenes por satélite o información de redes sociales—.

Sin embargo, la inteligencia artificial tiene aún un prometedor futuro por delante en esta industria, y gran parte tiene lugar en los procesos de negocio.

Los avances en natural language processing —disciplina de la inteligencia artificial que se ocupa de investigar la manera de conseguir que máquinas y personas se comuniquen utilizando lenguas naturales—, permiten que las máquinas sean capaces de convertir textos en conocimiento.

Esto es aplicable a infinidad de procesos, desde el análisis de documentos comerciales que deben cumplir con necesidades legales al seguimiento de la farmacovigilancia, pasando por la escucha y atención de pacientes.

¿Por qué ahora es el momento de implantar la inteligencia artificial?

Básicamente por cuatro motivos. El primero está relacionado con la posibilidad de almacenar y acceder a los datos necesarios para poner en marcha proyectos basados en inteligencia artificial. En este punto es necesario remarcar que es más importante identificar qué información es necesaria para resolver un problema concreto que la cantidad de datos almacenados, lo que implica tener una estrategia clara con los datos.

El segundo motivo es la facilidad de acceso a recursos de computación que prácticamente permiten el entrenamiento de cualquier modelo.

El tercero es, precisamente, el acceso a modelos preentrenados, como son los Transformers en natural language processing, que permiten su utilización para propósitos particulares de cada empresa.

Por último, hoy en día la inteligencia artificial se construye con diferentes componentes, lo que facilita su utilización y acorta los tiempos para producir resultados.

¿Qué es el machine learning (ML)?

Es una disciplina de la inteligencia artificial que se basa en la identificación de patrones sobre una gran cantidad de datos. Básicamente son métodos y sistemas que nos permiten predecir, extraer, resumir, optimizar y adaptar información. Además, estos sistemas deben ser capaces de automejorar con el uso o entrenamiento.

El machine learning resuelve problemas del tipo entrada-salida (input-output) mediante la creación de funciones matemáticas o algoritmos de forma automática. Para ello es muy importante formularlos adecuadamente empezando por definir con exactitud qué queremos resolver y si es posible con machine learning.

Simplificando, podríamos decir que existen dos tipos de machine learning, el supervisado y el no supervisado. En el aprendizaje supervisado se necesita trabajo previo para identificar patrones y tomar acciones, mientras que en el aprendizaje no supervisado este paso no es necesario.

¿Qué es el natural language processing (NLP)?

El procesamiento del lenguaje natural (NLP por sus siglas en inglés) es una rama de la inteligencia artificial que ayuda a las computadoras a entender, interpretar y manipular el lenguaje humano.

El desarrollo del natural language processing no solo se basa en tecnología de computación, sino que trabaja estrechamente con la lingüística. El objetivo es permitir la comunicación entre humanos y máquinas de la misma forma en las que nos comunicamos entre nosotros.

El desafío está en que la máquina sea capaz de interpretar un lenguaje que es extremadamente complejo y diverso y que los humanos expresamos de maneras infinitas, tanto verbalmente como por escrito.

El natural language processing es importante porque ayuda a resolver la ambigüedad del lenguaje convirtiendo las palabras en números (vectores) para que puedan aplicarse todo tipo de funciones e hipótesis matemáticas. En general, dichas palabras carecen de lo que nosotros entendemos por significado, siendo una especie de cascarones vacíos.

En natural language processing se utilizan métodos de machine learning y deep learning con aprendizaje supervisado y no supervisado. En la actualidad, los algoritmos más potentes de natural language processing son los denominados Transformers. También es necesario dotar a las máquinas de reglas sintácticas y, por último, de entendimiento semántico, además de información de los dominios de conocimiento específicos que vaya a tratar.

¿Qué es el deep learning (DL)?

Al igual que el machine learning, el deep learning es un tipo de algoritmo que resuelve problemas del tipo entrada-salida (input-output). Estos algoritmos se diferencian por el número de niveles que utilizan.

En el nivel inicial, el de menor abstracción, la red aprende algo simple y luego envía esta información al siguiente nivel. El siguiente nivel toma esta información sencilla, la combina, compone una información un poco más compleja y se lo pasa al tercer nivel; y así sucesivamente.

Por tanto, son como una cascada con unidades de procesamiento que extraen y transforman variables. Al igual que en el machine learning, los algoritmos pueden utilizar aprendizaje supervisado o no supervisado, y las aplicaciones incluyen modelización de datos y reconocimiento de patrones.

Son muy utilizados en el procesamiento de lenguaje natural y en este campo básicamente consiste en un proceso recurrente de codificación y descodificación de las palabras que previamente se han convertido en vectores para poder aplicar en ellos la ciencia de las matemáticas.

¿Qué es el natural language generation (NLG)?

El natural language generation o generación de lenguaje natural es una disciplina complementaria al procesamiento de lenguaje natural cuyo foco es transformar datos en una narrativa escrita o hablada como si lo hiciera un humano, buscando comunicar una información de la forma más inteligible posible para las personas.

Combina conocimiento analítico con texto sintetizado para crear narrativas contextualizadas.

¿Qué es el robotic process automation (RPA)?

En los proyectos de transformación digital de las empresas se busca eliminar tareas repetitivas realizadas por humanos y sustituirlas por máquinas. La automatización de procesos mediante robots o robotic process automation (RPA) es un software que se utiliza para simular el trabajo de una persona que debe acceder a múltiples sistemas de información para extraer datos y cargarlos en otros sistemas.

Por tanto, son robots de software que se añaden como capas por encima de los sistemas ya implantados y permiten simular el trabajo repetitivo evitando posibles errores y acelerando el proceso.

¿Qué son los axones?

Los axones son una metodología semántica que relaciona conceptos a partir de su significado. Estructuran el conocimiento de un dominio concreto a través de la vinculación de conceptos con contenido semántico.

Podemos utilizarlos para automatizar la creación de ontologías a través de la obtención de un grafo de conocimiento a partir del cual se pueden desarrollar métricas que permitan estructurar la analogía semántica.

También nos ayudan a categorizar y clasificar conceptos que pueden ser utilizados para la creación de recomendadores.

¿Qué es una ontología?

Una ontología define los términos a utilizar para describir y representar un área específica de conocimiento o dominio.

Viene de la definición de la filosofía —ontos (ser o estar) y logos (razonamiento)— como “parte de la metafísica del ser en general y sus propiedades”. Busca dar explicación a lo existente más allá de lo físico.

En el campo de la tecnología, una ontología es una estructuración semántica de un dominio de forma unívoca que permita comunicarse persona con persona, persona con computadora y computadora con computadora.

El objetivo de disponer de una ontología es poder interpretar sin ambigüedades la información de un dominio para poder gestionar y generar conocimiento.

¿Qué es un grafo de conocimiento?

Un grafo es un conjunto de objetos (nodos) que se relacionan unos con otros a través de conexiones (aristas). A través de esta representación visual los grafos permiten estudiar las relaciones que existen entre unidades que interactúan entre sí.

Los nodos contienen datos, y sus etiquetas o metadatos se relacionan entre sí mediante las aristas. Esto permite mantener esquemas de datos múltiples y variados a lo largo del tiempo sin necesidad de rediseño.

Un grafo de conocimiento unifica información heterogénea y distribuida que la hace interrogable tanto por máquinas como por personas y permite visualizarla haciéndola comprensible en su contexto.

También son capaces de almacenar datos estructurados, incluidos los metadatos que, de manera implícita, proporcionan estructura y contexto a la información.

Debido a estas características son una solución útil para almacenar datos extraídos de documentos que, unidos a algoritmos de machine learning, permiten visualizar de forma unificada todo el conocimiento, realizar un análisis avanzado de las relaciones y buscar patrones.

En definitiva, los grafos de conocimiento permiten almacenar datos, dotarlos de estructura y contexto a la par que ofrecen sistemas de interrogación, recuperación de la información, descubrimiento de conocimiento y análisis que los hacen imprescindibles en campos como el procesamiento de lenguaje natural.

¿Qué es un Transformer?

Un Transformer es un modelo de deep learning utilizado principalmente en el procesamiento de lenguaje natural.

Además de vectorizar las palabras, añade un mecanismo de atención para analizar el comportamiento global de la frase, tanto en la codificación como en la descodificación.

Este mecanismo ayuda a entender el contexto, al igual que hacemos los humanos, que capturamos la esencia de cada frase más que el significado de cada palabra.

¿Qué es kernel?

Es un método matemático de clasificación que ayuda a resolver problemas complejos transformando algoritmos lineales en algoritmos no lineales.

¿De qué es capaz dezzai?

Con la suficiente cantidad de documentos y diccionarios médicos, dezzai es capaz de crear una ontología médica.

Del mismo modo, una ontología creada a partir de la documentación y conocimiento que acumula una empresa bancaria puede ayudar tanto a agentes humanos como a bots en la atención y gestión de incidencias.

Esto son tan solo dos ejemplos del poder de dezzai ¿Quieres leer más? Haz clic aquí.

¿Qué hace diferente a la tecnología de axones?

La tecnología de dezzai va mucho más allá de reunir conocimiento y crear resúmenes o textos. Los axones suponen un nuevo acercamiento computacional a la semántica, otorgando a las máquinas una capacidad asociativa que parte del propio significado de las palabras.

Esto permite relacionar conceptos, identificar sinónimos, estructurar conocimiento de forma automática, desambiguar y, en general, construir modelos que mejoren la “comprensión” artificial de un texto.

¿Para qué utilizamos los grafos?

Almacenamos los grafos en una base de datos para mostrar la relación que tienen los conceptos según su significado a través de una representación gráfica.

De esta forma, y gracias a los algoritmos de machine learning, permite visualizar de forma unificada todo el conocimiento, realizar un análisis avanzado de las relaciones y buscar patrones.

Estamos aquí para ayudarte