688
Inteligencia
Artificial
-I-
29 marzo, 2023
A través de una carta abierta, más de mil
expertos y ejecutivos del mundo de las IA, entre ellos el destacado historiador
y filósofo Yuval Noah Harari y el cofundador de Apple, Steve Wozniak,
solicitaron una pausa "inmediata" de seis meses en el desarrollo de
sistemas de IA más avanzados que GPT-4. Lo anterior, debido a los riesgos que
tendrían para la sociedad y la humanidad, como el aumento de la desinformación,
la pérdida de empleos e incluso la posibilidad de la "pérdida de control
de la civilización". "Los sistemas de IA con inteligencia que compite
con la humana pueden plantear riesgos profundos, como lo demuestra una extensa
investigación y lo reconocen los principales laboratorios de IA. Las decisiones
no se pueden delegar en responsables tecnológicos que no hemos elegido",
apuntan. "Esto no significa una pausa para el desarrollo en general,
simplemente un paso atrás de la peligrosa carrera hacia (herramientas) con
capacidades emergentes impredecibles y cada vez más grandes", agregan.
Expertos en inteligencia artificial (IA) y
ejecutivos del sector, incluyendo al profesor Yuval Noah Harari y al cofundador
de Apple, Steve Wozniak, han solicitado, a través de una carta abierta, una
pausa "inmediata" de seis meses en el desarrollo de sistemas de IA
más avanzados que GPT-4. Lo anterior, debido a los posibles riesgos que podrían
tener para la sociedad y la humanidad. Algunos de los efectos negativos
mencionados son el aumento de la desinformación, la pérdida de empleos e
incluso el riesgo de "pérdida de control de la civilización".
En concreto, el documento sostiene que "los
sistemas de inteligencia artificial potentes deben desarrollarse solamente una
vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán
manejables". Asimismo, detallan los potenciales riesgos para la sociedad y
la civilización de los sistemas de IA, como disrupciones políticas y
económicas, por lo que se les pide a los desarrolladores que trabajen en
conjunto con legisladores y autoridades reguladoras en materia de gobernanza.
La carta abierta propone que durante estos seis
meses de pausa, los laboratorios de inteligencia artificial y los expertos
independientes "desarrollen e implementen conjuntamente un conjunto de
protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA
que sean rigurosamente auditados y supervisados por expertos externos independientes".
"Los sistemas de IA con
inteligencia que compite con la humana pueden plantear riesgos profundos, como
lo demuestra una extensa investigación y lo reconocen los principales
laboratorios de IA. Las decisiones no se pueden delegar en responsables
tecnológicos que no hemos elegido", apuntan. Además, advierten que ni se
monitoriza su impacto ni se gestionan de forma correcta.
El escrito fue emitido por el Future of Life
Institute, una organización sin fines de lucro enfocada en garantizar que las
transformaciones tecnológicas no sean perjudiciales. En él, se solicita una
pausa en el desarrollo avanzado de la IA hasta que expertos independientes
desarrollen, implementen y auditen protocolos de seguridad compartidos para estos
diseños.
Además, se hace un llamado a establecer organismos
reguladores, auditorías, sistemas de certificación y a asumir la
responsabilidad por los daños causados por la IA. Incluso se sugiere la
posibilidad de que los gobiernos intervengan para frenar el desarrollo si no
hay una voluntad común de garantizar la seguridad en este ámbito.
El número total de personas que suscribió el
documento supera las mil, y entre los principales firmantes se encuentran el
consejero delegado de Stability AI, Emad Mostaque, investigadores de DeepMind
-propiedad de Alphabet-, el cofundador de Apple, Steve Wozniak, y diversos
referentes del sector como Yoshua Bengio o Stuart Russell. A ellos se suman los
españoles Carles Sierra y Ramón López De Mántaras, entre otros.
"Pueden causar daños
graves. Los grandes actores están siendo cada vez más reservados sobre lo que
están haciendo, lo que dificulta que la sociedad se defienda contra cualquier
daño que pueda materializarse", ha valorado Gary Marcus, profesor emérito
de la Universidad de Nueva York y firmante en declaraciones a Reuters.
Es una carrera "cerrada y
fuera de controles" para impulsar inteligencias artificiales que
"nadie, ni sus creadores, pueden entender, predecir o controlar
fehacientemente", expone el escrito. "La carta no es perfecta, pero
el espíritu es el correcto: debemos reducir la velocidad hasta que entendamos
mejor las ramificaciones", agregó Marcus.
La declaración se produce pocos días después de que
Europol expresara su preocupación sobre las implicaciones éticas y legales de
las inteligencias artificiales avanzadas como GPT, advirtiendo sobre el posible
uso indebido del sistema en intentos de phishing, desinformación y
ciberdelincuencia. "Esto no significa una pausa para el desarrollo en
general, simplemente un paso atrás de la peligrosa carrera hacia (herramientas)
con capacidades emergentes impredecibles y cada vez más grandes",
sentencian.
Cabe destacar que desde su lanzamiento el año
pasado, ChatGPT de OpenAI, apoyado por la empresa Microsoft, ha incentivado a
los rivales a acelerar el desarrollo de modelos de lenguaje similares, así como
a las empresas a integrar modelos de IA generativa en sus productos. No
obstante, Sam Altman, quien está a cargo de OpenAI, no se encuentra entre los
firmantes de la carta.
https://www.elmostrador.cl/cultura/2023/03/29/yuval-harari-y-steve-wozniak-lideran-llamado-de-expertos-para-pausar-desarrollo-de-ia-ante-numerosos-riesgos-para-la-humanidad/
-II-
28 marzo, 2023
El modelo matemático es capaz de construir una
red de vínculos entre personas con historial delictivo, además de identificar a
potenciales integrantes de bandas asociadas a hechos criminales. “El objetivo es
ayudar a los y las fiscales a determinar rápidamente, en cosa de segundos, qué
personas podrían haber actuado en un hecho delictual atribuible a una
banda", destacó sobre esta innovación el Fiscal Nacional, Ángel Valencia.
Fiscalía comenzará a aplicar un sistema basado en
Inteligencia Artificial para detectar a los vínculos entre personas con
historial delictivo e identificar a potenciales miembros de una agrupación
asociada a un hecho criminal específico.
En este sentido, será usado para casos de delitos
contra la propiedad en las fiscalías regionales del Maule, Coquimbo y
Metropolitana Centro Norte y pronto se probará adaptado a casos de homicidios y
drogas.
La innovación es resultado del proyecto
Fondef “Sistema de analítica integrada de información para la persecución
de delitos contra la propiedad: inteligencia artificial para detectar
estructuras criminales”, una línea de investigación liderada por el académico
del Departamento de Ingeniería Industrial de la U. de Chile e investigador del
Instituto Sistemas Complejos de Ingeniería (ISCI), Richard Weber, en conjunto
con la Unidad Coordinadora de Análisis Criminal y Focos Investigativos de la
Fiscalía Nacional.
“Con este sistema cada fiscal y su equipo ya no
tendrán que analizar muchas carpetas para dar con potenciales vínculos, ya que
la máquina hará un filtro y le propondrá un número acotado. La ventaja es
reducir el volumen y la complejidad de la búsqueda”, destaca Weber.
El algoritmo se nutre de información de diferentes
bases de datos, como la del Sistema de Apoyo a los Fiscales (SAF).
Para el análisis, integra modus operandis (lugares,
horas, perfiles de víctimas, etc.), conocimiento de ciertas técnicas necesarias
para llevar a cabo el delito (oxicorte, por ejemplo) y reincidencias, entre
otros elementos.
“El objetivo es ayudar a los y las fiscales a
determinar rápidamente, en cosa de segundos, qué personas podrían haber actuado
en un hecho delictual atribuible a una banda. Tanto si contamos con un
sospechoso como si no contamos con él, por lo que esperamos que sea de gran
ayuda para bajar las tasas de delitos con imputados desconocidos”, explicó el
Fiscal Nacional, Ángel Valencia.
Así, agregó, "ante delitos recién ocurridos,
podremos pedirle al sistema que nos proponga los nombres de un número inicial
de sujetos. Luego, podremos ir aumentando ese número en el transcurso de la
investigación”.
El equipo de investigación liderado por el profesor
Weber e integrado por Carla Vairetti, de la Universidad de Los Andes, y Fredy
Troncoso, de la Universidad del Biobío, ya ha realizado varias pruebas en casos
de robos, con altas tasas de efectividad.
A modo de ejemplo, en uno de ellos se trabajó un
hecho reciente en el que, se sabía, estaban involucradas 12 personas. Al
sistema se le entregaron solo dos de esas identidades, siendo capaz de rastrear
y proponer la identidad de siete individuos nuevos que estaban dentro de los
que fueron condenados.
El mecanismo consiste en identificar a una persona
como un nodo inicial, de quien se desprenden vínculos con terceros con los que
haya participado en al menos un delito anterior.
De esta forma, se genera un mapa de redes
criminales. En el caso que no exista esa persona inicial, el sistema puede
comparar hechos, jurisdicción y normas aplicadas, entre otras variables.
-III-
La Inteligencia Artificial (IA) es
la combinación de algoritmos planteados con el propósito de crear máquinas
que presenten las mismas capacidades que el ser humano. Una
tecnología que todavía nos resulta lejana y misteriosa, pero que desde hace
unos años está presente en nuestro día a día a todas horas.
Los expertos en ciencias de la computación Stuart Russell y Peter Norvig diferencian varios
tipos de inteligencia artificial:
Sistemas que piensan como humanos
Automatizan
actividades como la toma de decisiones, la resolución de problemas y el
aprendizaje. Un ejemplo son las redes neuronales
artificiales.
Sistemas que
actúan como humanos
Se trata de computadoras que realizan tareas de forma similar a como lo hacen
las personas. Es el caso de los robots.
Sistemas que piensan
racionalmente
Intentan emular el
pensamiento lógico racional de los humanos, es decir, se
investiga cómo lograr que las máquinas puedan percibir, razonar y actuar en
consecuencia. Los sistemas expertos se
engloban en este grupo.
Idealmente, son
aquellos que tratan de imitar de manera racional el comportamiento humano, como
los agentes inteligentes.
La IA
está presente en la detección facial de los móviles, en
los asistentes virtuales de voz como Siri de Apple,
Alexa de Amazon o Cortana de Microsoft y está integrada en
nuestros dispositivos cotidianos a través de bots (abreviatura de robots)
o aplicaciones para móvil, tales como: LyliEnlace externo, se abre en ventana nueva.,
un personal shopper en versión
digital; Parla
Enlace externo, se abre en ventana nueva.,
concebida para ayudarnos con el aprendizaje de idiomas; Ems
Enlace externo, se abre en ventana nueva.,
diseñada para hacernos un poco más llevadera la ardua tarea de encontrar nuevo
piso; o Gyant
Enlace externo, se abre en ventana nueva.,
un asistente virtual de Facebook que emite 'diagnósticos' médicos. El objetivo
de todas ellas: hacer más fácil la
vida de las personas.
Los
avances en IA ya están impulsando el uso del big data debido a su habilidad para
procesar ingentes cantidades de datos y proporcionar ventajas comunicacionales,
comerciales y empresariales que la han llevado a posicionarse como la tecnología
esencial de las próximas décadas. Transporte, educación,
sanidad, cultura... ningún sector se resistirá a sus encantos.
Conviviremos con chatbots interactivos que podrán sugerirnos
productos, restaurantes, hoteles, servicios, espectáculos, según
nuestro historial de búsquedas.
Las tecnologías inteligentes pueden ayudar a los bancos a detectar el fraude, predecir patrones del
mercado y aconsejar operaciones a sus clientes.
Permite saber si un estudiante está a punto de cancelar su
registro, sugerir nuevos cursos o crear
ofertas personalizadas para optimizar el aprendizaje.
Posibilita
hacer pronósticos
de ventas y elegir el producto adecuado para recomendárselo al cliente. Empresas
como Amazon utilizan robots para identificar si un libro tendrá o no éxito,
incluso antes de su lanzamiento.
Flotas de drones capaces de plantar mil millones de árboles al año
para combatir la deforestación, vehículos
submarinos no tripulados para detectar
fugas en oleoductos, edificios inteligentes diseñados
para reducir el consumo
energético, etc.
Plataformas específicas que, por medio de análisis
predictivos, mejoran los
rendimientos agrícolas y advierten de impactos ambientales adversos.
Será útil a la hora de evitar
colisiones o atascos y también para optimizar el tráfico. Tesla
ha desarrollado un sistema gracias al cual, cuando uno de sus coches transita
una ruta por primera vez, comparte la información con el resto.
Ya existen chatbots que nos preguntan por nuestros
síntomas para realizar un diagnóstico. La recolección de
datos genera patrones que ayudan a identificar
factores genéticos susceptibles de desarrollar una enfermedad.
Esta vertiginosa
irrupción de la IA y de la robótica en nuestra sociedad ha
llevado a los organismos internacionales a plantearse la necesidad de crear una normativa para regular su
uso y empleo y evitar, de este modo,
posibles problemáticas que puedan surgir en el futuro.
1.
Los robots
deberán contar con un interruptor de emergencia para evitar cualquier situación de peligro.
2.
No podrán
hacer daño a los seres humanos. La
robótica está expresamente concebida para ayudar y proteger a las personas.
3.
No podrán
generarse relaciones emocionales.
4.
Será
obligatoria la contratación de un seguro destinado
a las máquinas de mayor envergadura. Ante cualquier daño material, serán los
dueños quienes asuman los costes.
5.
Sus
derechos y obligaciones serán clasificados legalmente.
6.
Las
máquinas tributarán a la seguridad social. Su entrada en el mercado laboral impactará sobre la mano
de obra de muchas empresas. Los robots deberán pagar impuestos para
subvencionar las ayudas de los desempleados.
Ambas tecnologías ya están cambiando
el mundo y las cifras son la mejor
muestra de ello: la consultora estadounidense Gartner estima que
el mercado de la IA pueda llegar a representar 127.000 millones de dólares en
2025, cifra muy superior a los 2.000 millones de 2015.
Estados Unidos y China se situarán a la cabeza en inversiones. La consecuencia
es que, según el Fondo Monetario Internacional (FMI), la IA acabará con 85
millones de puestos de trabajo en cinco años, pero a cambio creará 97 millones.
Y
aunque haya voces como la del filósofo sueco de la Universidad de Oxford, Nick Bostrom, que anticipa que "existe un 90% de posibilidades de
que entre 2075 y 2090 haya máquinas tan inteligentes como los humanos", o
la de Stephen
Hawking, que aventura que las máquinas
superarán completamente a los humanos en menos de 100 años, lo cierto es que
lejos de convertirnos en obsoletos, la IA nos hará más eficientes y nos
permitirá ejecutar acciones que nunca hubiéramos podido realizar debido a su
complejidad. ¿Te imaginas explorar partes del universo
totalmente hostiles para el ser humano? Gracias a ella, un día será posible.
https://www.iberdrola.com/innovacion/que-es-inteligencia-artificial
-IV-
El
buscador de Google cambiará para vencer a sus rivales de Inteligencia
Artificial.
Hay quienes rinden mejor bajo presión. Y es que la llegada de
Bing puso en desventaja al buscador de Google, que se lo catalogó como más
tradicional, pues no ha implementado Inteligencia Artificial hasta el momento.
Sin embargo, la empresa líder está preparando un cambio radical y prometedor
para volver a adelantarse en la carrera de la IA.
En marzo, Samsung, el gigante de electrónica de Corea del Sur, le dijo a Google que estaba considerando
reemplazarlo por Bing de Microsoft como el motor de
búsqueda predeterminado en sus dispositivos.
Y es que su rival tiene una ventaja que Google no:
la Inteligencia Artificial (IA), una característica que volvió a
este buscador mucho más interesante para los
expertos de la industria. Y la reacción del buscador tradicional fue el
“pánico”, según mensajes internos a los que accedió The New York Times, pues
millones de dólares estaban en juego.
Es por esta razón que Google está diseñando nuevas
características para su buscador, una manera de reinventarse, con
la esperanza de no quedar atrás en la carrera de la IA y dejar de ser el
buscador más utilizado e importante a nivel mundial.
El buscador de Microsoft, Bing, sorprendió a muchos
por tener la nueva función de un chatbot de IA que lleva las búsquedas
corrientes a otro nivel: la idea es “interactuar” con el bot y hacerle
preguntas más complejas y que te entregue respuestas más desarrolladas que las
que podría entregarte un buscador tradicional, parecido a ChatGPT.
Para mala suerte de Google, se lo encasilló a ser
ese “buscador tradicional”, por lo que las posibilidades de destronarlo
aumentaron. En respuesta, decidió competir y construir un motor de
búsqueda completamente nuevo, impulsado por este tipo de tecnología, según
documentos que consiguió The Times.
Se dice que este proyecto, llamado Magi,
está siendo trabajado por diseñadores, ingenieros y ejecutivos para modificar y
probar las últimas versiones que prometen ofrecer una experiencia mucho más
personalizada que el servicio actual.
“Estamos entusiasmados de traer nuevas funciones
impulsadas por IA para la búsqueda y compartiremos más detalles pronto”, dijo
la vocera de Google, Lara Levin en un comunicado. Y es que la empresa está, sin
duda, en la búsqueda de darle a sus usuarios y socios más razones para seguir
eligiéndolos.
Varias fuentes afirman que este nuevo sistema
aprenderá lo que los usuarios quieren en función de lo que buscan cuando
comiencen a usarlo. De esta manera, podría ofrecer listas de opciones
preseleccionadas de objetos para comprar o información para investigar, además
de ser mucho más “conversacional”, como chatear con una persona “útil”.
Y sin dejar de lado el motor de Google, Magi
mantendría los anuncios en la combinación con los resultados de búsqueda. En
esta línea, las consultas, además, podrían conducir a una transacción
financiera, como por ejemplo, comprar zapatos o reservar un vuelo.
También se cree que se le podrá preguntar sobre codificación
de software y Magi podría escribir códigos en función de lo que solicite el
usuario. Otro documento afirma que incluso se prevé que esta tecnología se
pueda utilizar en mapas de Google Earth e incluso para buscar música a través
de una conversación.
Pero los proyectos en desarrollo también suenan
prometedores, como Tivoli Tutor, que enseñaría a los usuarios un nuevo idioma a
través de la IA y conversaciones de texto, y Searchalong, que permitiría hacer
preguntas a un chatbot mientras se navega por la web, a través del navegador
Chrome.
Este último suena muy interesante, pues, por
ejemplo, si un usuario está en la página de AirBnB, le podría preguntar al bot
qué actividades puede realizar cerca y la IA escanear la web para buscar una
respuesta en el resto del Internet.
Se espera que Google lance a Magi el próximo mes,
donde un máximo de un millón de personas podrán probarla, cifra que debiese
aumentar progresivamente a 30 millones para fin de año. No obstante, estará
solo disponible para Estados Unidos.
-V-
Inteligencia Artificial: qué es la “caja negra” y por qué inquieta a los
expertos en tecnología
En medio de las discusiones sobre los acelerados avances de
la inteligencia artificial, especialistas en el área han alertado sobre el
fenómeno de la “caja negra” y los factores que se deben considerar al
analizarlo. Revisa de qué se trata en esta nota.
21 ABR 2023
Cuando un grupo de ingenieros de Google se
encontraban trabajando recientemente en un software de Inteligencia artificial, se sorprendieron al
notar que este sistema aprendió —de manera inesperada— a hablar un nuevo idioma.
Inicialmente, los expertos solo le habían dado “muy
pocas indicaciones” en bengalí, pero de un momento a otro, aprendió a traducir
esa lengua en prácticamente su totalidad.
Así lo relató el jefe de la división de IA de
la firma, James Maneka, en el programa 60 Minutes de la cadena
televisiva CBS.
Por su parte, el director ejecutivo de la empresa,
Sundar Pichai, profundizó en que ese episodio cabe dentro de un fenómeno que
numerosos especialistas han denominado como la “caja negra”.
Según explicó, este se caracteriza porque “no lo
entiendes del todo”.
“No puedes decir muy bien por qué dijo esto o por
qué se equivocó en eso otro. Tenemos algunas ideas y nuestra capacidad para
entenderlo mejora con el tiempo. Pero ahí es donde estamos hasta ahora”.
Sin duda alguna, la IA se ha posicionado como
probablemente el tópico más comentado en cuanto a tecnología.
Compañías como Open
AI han desarrollado chatbots como ChatGPT. Microsoft está
apostando por su propia versión en el motor de búsqueda de Bing.
El empresario Elon Musk fundó recientemente X.AI.
Y por supuesto, Google está invirtiendo en Bard.
Asimismo, especialistas de diversas áreas
como Bill Gates y Noam Chomsky han manifestado públicamente
sus opiniones al respecto, mientras que a finales del mes pasado, un grupo de
líderes e investigadores tecnológicos presentaron una carta en la que pidieron una “pausa” en los avances de
la IA.
Entre los firmantes, se encontraron el cofundador
de Apple, Steve Wozniak, y el mismísimo Musk.
Los debates sobre esta temática se han incrementado
y se pronostica que seguirán aumentando progresivamente.
Por un lado, unos plantean que una forma de
implementar los beneficios de la IA en la sociedad es introduciéndola poco a
poco, mientras que por otro, se argumenta que se deberían tener mayores
consideraciones en torno a cómo enfrentar sus potenciales riesgos.
En medio de aquella discusión, la “caja negra” a
la que se refería Pichai cobra un carácter fundamental.
Es lógico pensar que —en contraposición al fenómeno
mencionado— también exista otro conocido como la “caja blanca”.
Según explicó a la BBC el
cofundador de la firma Plural y coautor del análisis The State of AI Report,
Ian Hogarth, esta última se caracteriza porque sus creadores construyen un
software “tradicional” que sigue fielmente las órdenes que se le solicitan a
través de códigos.
Aquello es muy distinto a los sistemas de IA como
tal, debido a que estos se abren la posibilidad de adquirir nuevas habilidades
para las que no fueron diseñados, ya que sus creadores —en términos sencillos—
tratan de conseguir mecanismos que imiten a las “redes neuronales” de los seres
humanos.
Para esto, también se les suministra una extensa
cantidad de datos con las que pueden responder en función de lo que están
haciendo. Aunque como han demostrado expertos, la información que arrojan no
siempre es verídica.
“Están más cerca de una caja negra en muchos
sentidos, pues no entiendes realmente lo que sucede dentro. Me gusta pensar que
las cultivamos. Esa es la mejor idea que he oído sobre cómo construimos estos
sistemas en la actualidad. Lo difícil es que, a medida que las desarrollamos,
se producen grandes saltos bruscos en sus capacidades”.
El gerente de investigación cuantitativa de
G-Research, David Stern, agregó al citado medio que “el enfoque de red
neuronal” es un “procedimiento de entrenamiento que determina la configuración
de millones de parámetros internos que interactúan de manera compleja y son muy
difíciles de explicar”.
Un escenario similar —aunque aún más difícil de
descifrar— se ve en el “aprendizaje de refuerzo profundo”, es decir, cuando “un
diseñador simplemente especifica los objetivos de comportamiento del sistema y
este aprende automáticamente interactuando directamente con el entorno”.
Se presume que los avances en la inteligencia
artificial generativa seguirán presentándose exponencialmente, en medio de un
escenario en donde programas de este tipo ya están funcionando.
Para Pichai, no entender al 100% las respuestas que
pueden dar estos sistemas no es un problema mayor, ya que según dijo en el
programa de CBS, “tampoco creo que entendamos completamente cómo funciona la
mente humana”. En este sentido, manifestó la necesidad de que especialistas de
distintas áreas se sumen a la discusión, para que así se implemente
progresivamente y considerando múltiples factores.
Por su parte, Hogarth destacó a la BBC que confía
en que “tiene un potencial notable para transformar todos los aspectos de
nuestras vidas”, aunque también subrayó que “deberíamos tener un debate mucho
más público sobre la rapidez con la que progresan”.
-VI-
Cómo la Inteligencia Artificial está
Transformando la Industria Musical
La inteligencia artificial está transformando
nuestra realidad en cientos aspectos. La mayoría de la gente asocia la IA con
la evolución de los coches auto-conductores y los robots, y tienen razón. Sin
embargo, una tecnología similar también está presente y ampliamente empleada en
la industria de la música.
Hay múltiples aplicaciones de IA que usamos
diariamente sin darnos cuenta. Por ejemplo, las plataformas de streaming tienen
algoritmos de aprendizaje automático (un subconjunto de la Inteligencia
Artificial) que están "silenciosamente incrustados" en nuestra
experiencia auditiva. Las recomendaciones de los artistas y las listas de
reproducción son grandes ejemplos de cómo los consumidores utilizan la IA a
escala global para descubrir nueva música.
También vemos un desarrollo significativo de cómo
consumimos la música. Múltiples iniciativas se centran en el proceso de
creación de música. Este artículo destacará los avances más prominentes y de la
IA en esta materia.
En la última década, las plataformas de streaming
evolucionaron e hicieron más accesible la música, democratizando el segmento,
especialmente para aquellos que no tenían acceso a las producciones y
lanzamientos de prensa. Ahora, experimentamos una segunda ola en la que el
papel de la Inteligencia Artificial impacta en la forma en que la gente compone
y produce música.
Algunos profesionales consideran que la
tecnología irá más allá de la asistencia a los artistas; podría sustituir parcial
o totalmente lo que hacen los compositores e ingenieros de sonido en futuros
álbumes y lanzamientos.
¿Es la IA realmente capaz de reemplazar a los
humanos en la fabricación de música? ¿Escuchará la gente la música producida
por los algoritmos?
Para aprender más, continúe leyendo la siguiente
sección, donde desempacamos varios ejemplos del mundo real.
Cómo la inteligencia artificial influye en
nuestra rutina
La inteligencia artificial está utilizando
algoritmos y mecanismos para proporcionar experiencias aún más completas a los
oyentes. El servicio de streaming Spotify, por ejemplo, utiliza la tecnología
para crear listas de reproducción específicas para sus usuarios, según sus
preferencias en la plataforma. Youtube, utiliza la inteligencia artificial para
marcar contenidos con derechos de autor y automatizar la monetización de los
anuncios.
Las Big Techs también se están involucrando en el
nicho de la producción y creación musical. Los equipos de Google, por ejemplo,
publican continuamente artículos y recursos para la comunidad de
desarrolladores. Recientemente, uno de sus grupos de investigación publicó una
serie de plugins de IA de código abierto llamando a la iniciativa Magenta.
Magenta Studio es una colección de plugins de música construida sobre las
herramientas y modelos de código abierto de Magenta. Utilizan técnicas de
aprendizaje de máquinas de vanguardia para la generación de música. La
colección de plugins también es compatible con Ableton Live, lo que facilita la
adaptación a cualquier flujo de trabajo de los músicos.
En 2016, los investigadores de Sony utilizaron la
inteligencia artificial para componer una canción al estilo de los Beatles,
llamada "Daddy's Car". La pista inspirada en la banda inglesa contó
con la ayuda del compositor francés Benoit Carré, para darle un toque humano a
la composición.
Más tarde, en 2017, Taryn Southern prestó su voz
a Amper (una plataforma de inteligencia artificial) para lanzar su primer
álbum, titulado "I AM AI". El álbum fue creado casi en su totalidad por
la plataforma. También fue celebrado por los críticos y puso el foco de
atención en el mundo de la música y la tecnología.
El proyecto Jukebox desarrollado por OpenAI, es
una de las más recientes y prominentes iniciativas de generación de música.
Utiliza la inteligencia artificial para reconstruir la música de una manera
moderna y eficiente. Provisto de género, artista y letra como entrada, Jukebox
produce una nueva muestra de música producida desde cero.
La tecnología también ha logrado resultados increíbles
en la masterización de la música, creando pistas con una calidad tal que es
difícil diferenciar si fueron masterizadas por una máquina o por humanos. La
masterización digital también tiene otro lado positivo, que hace que el proceso
sea más rápido, más barato y que esté disponible para artistas independientes y
producciones con un presupuesto ajustado.
https://moises.ai/es/blog/inteligencia-artificial-industria-musical/
-VII-
Las nuevas tecnologías, y la inteligencia artificial en
particular, están cambiando de forma drástica la naturaleza de los procesos
creativos. Los ordenadores desempeñan papeles muy significativos en procesos
creadores como la música, la arquitectura, las bellas artes y la ciencia. De
hecho, el ordenador ya es un lienzo, un pincel, un instrumento musical,
etcétera. Sin embargo, creemos que debemos aspirar a relaciones más ambiciosas
entre ordenadores y creatividad. En lugar de considerar el ordenador como
herramienta de ayuda a los creadores humanos, podríamos verlo como una entidad
creativa en sí misma. Este punto de vista ha dado lugar a un nuevo subcampo de
la inteligencia artificial llamado creatividad computacional. Este capítulo
aborda la posibilidad de conseguir creatividad computacional mediante algunos
ejemplos de programas informáticos capaces de replicar aspectos de
comportamiento creador artístico. Terminamos con algunas reflexiones sobre la
reciente tendencia democratizadora de la creatividad, que consiste en asistir y
aumentar la creatividad humana.
La creatividad
computacional es el estudio del desarrollo de software que
presenta un comportamiento que sería considerado creativo en seres humanos.
Este software creativo puede usarse en tareas anónimas, como
inventar teorías matemáticas, escribir poesía, pintar cuadros y componer
música. Sin embargo, la creatividad computacional también permite comprender
cómo funciona la creatividad humana y reproducir programas para su uso por
parte de creadores donde el software actúa como colaborador creativo y no como
mera herramienta. Históricamente ha sido difícil para las sociedades
reconciliarse con las máquinas que pretenden ser inteligentes, y aún más
admitir que puedan ser creativas. Incluso en el ámbito de la informática sigue
habiendo escepticismo respecto al potencial creador del software. Una afirmación típica de los detractores de
la creatividad computacional es que «simular técnicas artísticas equivale a
simular el pensamiento y el razonamiento humanos, en especial el pensamiento
creativo. Es imposible hacer esto usando algoritmos o sistemas de procesamiento
de información». No podemos estar menos de acuerdo. Como se desprende
esperanzadoramente de los ejemplos expuestos en este artículo, la creatividad
no es un don místico fuera del ámbito del estudio científico, sino algo que
puede ser investigado, simulado y reconducido en beneficio de la sociedad. Y
aunque la sociedad todavía esté poniéndose al día, la creatividad computacional
como disciplina ha alcanzado la mayoría de edad. Esta madurez es evidente en la
cantidad de actividad relacionada con creatividad computacional en los últimos
años, en la complejidad del software creativo que estamos desarrollando, en el
valor cultural de los artefactos que produce nuestro software y,
lo que es más importante, en el consenso que estamos alcanzando sobre
cuestiones relativas a la creatividad computacional.
La creatividad computacional es un tema de estudio muy dinámico,
con muchas cuestiones aún abiertas al debate. Por ejemplo, muchos siguen
recurriendo al test de Turing (Turing 1950) para calcular el valor de los
artefactos producidos por su software. Es decir, si un número
determinado de personas no es capaz de determinar cuáles de los artefactos han
sido generados por un ordenador y cuáles por un ser humano, entonces el software funciona. Otros
creen que el test de Turing no es adecuado para el software creativo. La pregunta
debe ser: «Con toda la información en la mano, ¿valoraría la gente los
artefactos producidos por un ordenador tanto como los producidos por un
humano?». En algunos ámbitos, la respuesta sería sí. Por ejemplo,
cuando un chiste sigue siendo divertido, lo haya generado o no un ordenador. En
otros, como las artes visuales, lo más probable, sin embargo, es que la
respuesta sea no. Esto pone de
manifiesto el hecho de que a la hora de valorar una obra de arte se tiene en
cuenta el proceso de producción y no solo el resultado. De ahí que se pueda
argumentar que los test tipo Turing están básicamente destinados a condenar a
los ordenadores.
Desarrollar software creativo supone un desafío tanto técnico como social. Para seguir
avanzando necesitamos aceptar el hecho de que los ordenadores no son humanos.
Deberíamos mostrarnos públicamente orgullosos de los artefactos que produce
nuestro software. Deberíamos celebrar lo
avanzado de las técnicas de la inteligencia artificial que hemos empleado para
dotar al software de comportamiento creativo. Y deberíamos ayudar al público
en general a apreciar el valor de estas creaciones informáticas mediante la
descripción de los métodos que emplea el software para crearlas.
La creatividad parece algo misterioso porque cuando tenemos ideas
creativas es muy difícil explicar cómo las hemos tenido y a menudo recurrimos a
conceptos imprecisos como «inspiración» e «intuición». El hecho de que no
seamos conscientes de cómo se manifiesta una idea creativa no implica
necesariamente que no exista una explicación científica. Lo cierto es que no
somos conscientes de cómo desempeñamos otras actividades como comprensión del
lenguaje, reconocimiento de patrones, etcétera, y sin embargo tenemos técnicas
cada vez mejores de inteligencia artificial para replicarlas.
Puesto que nada surge de la nada, debemos comprender que toda obra
o idea creativa siempre viene precedida de una trayectoria histórico-cultural,
es el fruto de la herencia cultural y de vivencias previas. Tal y como afirma
Margaret Boden en su libro Inteligencia
artificial y el hombre natural:
Probablemente los pensamientos nuevos que se originan en la mente
no son completamente nuevos, porque tienen su raíz en representaciones que ya
existían. Por expresarlo de otra manera, el germen de nuestra cultura, todos
nuestros conocimientos y experiencias, están detrás de cada idea creativa.
Cuanto mayores son los conocimientos y la experiencia, mayores las
posibilidades de encontrar una relación inesperada que conduzca a una idea
creativa. Si entendemos la creatividad como el resultado de establecer nuevas
relaciones entre bloques de conocimiento que ya poseemos, entonces cuantos más
conocimientos previos tengamos, mayor será nuestra capacidad de ser creativos.
De acuerdo con esta premisa, una definición operativa y
ampliamente aceptada de creatividad sería: «Una idea creativa es una
combinación nueva y valiosa de ideas conocidas». En otras palabras, pueden
generarse leyes físicas, teoremas, piezas musicales a partir de un conjunto
finito de elementos, y por tanto la creatividad es una forma avanzada de
resolución de problemas en la que participan la memoria, la analogía, el
aprendizaje y el razonamiento sujeto a restricciones, entre otros factores, y
por ello susceptible de ser replicada mediante ordenadores.
Este capítulo aborda la posibilidad de lograr creatividad
computacional mediante algunos ejemplos de programas informáticos capaces de
replicar ciertos aspectos del comportamiento creativo. Por cuestiones de
espacio no hemos podido incluir otras aplicaciones interesantes, entre ellas,
novela (Gervás 2009), poesía (Montfort et al. 2014),
ciencia (Langley et al. 1987) e incluso humor (Ritchie 2009). De modo que el ensayo
aborda, con diversos grados de detalle, resultados representativos de algunos
logros en los campos de la música y las artes visuales. La razón de centrarnos
en estos campos artísticos es que son, con mucho, aquellos en los que la
actividad es mayor y los resultados obtenidos son más impresionantes. El
capítulo termina con algunas reflexiones sobre la reciente tendencia
democratizadora de la creatividad que han traído consigo los procesos de
aumento y apoyo a la actividad creadora humana.
Para profundizar en la creatividad computacional en general,
recomiendo el número de la AI Magazine dedicado a creatividad computacional (Colton et al. 2009),
así como los libros de Boden (1991, 1994, 2009), Dartnall (1994),
Partridge y Rowe (1994), Bentley y Corne (2001) y McCormack y D’Inverno (2012).
La inteligencia artificial ha desempeñado un papel crucial en la
historia de la música por ordenador casi desde sus inicios, en la década de
1950. Sin embargo, hasta época reciente, la mayoría de los esfuerzos se habían
centrado en sistemas compositivos y de improvisación y se había prestado poca
atención a la interpretación expresiva. En esta sección revisaremos una
selección de algunos logros significativos de enfoques de inteligencia
artificial para la composición, la interpretación y la improvisación, con especial
énfasis en la interpretación de música expresiva.
Las investigaciones de Hiller e Isaacson (1958) con el ordenador
ILLIAC constituyen el trabajo pionero más conocido de música por ordenador. Su
principal resultado es la Suite Illiac, un cuarteto de cuerda
compuesto siguiendo el enfoque de resolución de problemas usando una
metodología de «generación y prueba». El programa generaba notas de manera
pseudoaleatoria mediante cadenas de Markov. Las notas generadas a continuación
se testaban mediante reglas compositivas heurísticas de armonía clásica y
contrapunto. Solo se conservaban las notas que superaban el test. Si ninguna de
las notas generadas satisfacía las reglas, se empleaba un sencillo sistema de
retroceso para borrar la composición entera hasta ese punto, y se empezaba un
nuevo ciclo. Los objetivos de Hiller e Isaacson excluían todo lo relacionado
con expresividad y contenido emocional. En una entrevista (Schwanauer y Levitt
1993), Hiller e Isaacson declararon que, antes de abordar la cuestión de la
expresividad había que solucionar problemas más básicos. Creemos que se trata
de una observación muy correcta para la década de 1950. Después de este trabajo
inicial, muchos otros investigadores han basado sus composiciones por ordenador
en las transiciones probabilísticas de Markov, pero también con éxito limitado
desde el punto de vista de la calidad melódica. De hecho, los métodos
excesivamente influidos por procesos markovianos no están lo suficientemente
desarrollados como para producir música de alta calidad de forma consistente.
No
todos los primeros trabajos con composición se fundamentan en enfoques
probabilísticos. Un buen ejemplo lo constituye la obra de Moorer (1972) sobre
generación de melodías tonales. El programa de Moorer generaba melodías simples
junto con sus progresiones armónicas subyacentes mediante patrones internos
simples de repetición de notas. Este enfoque se basa en simular los procesos
compositivos humanos usando técnicas heurísticas en lugar de cadenas probabilísticas
markovianas. Levitt (1983) también evitó el uso de probabilidades en el proceso
compositivo. Argumenta que «la aleatoriedad tiende a oscurecer antes que a
revelar las restricciones musicales necesarias para representar estructuras
musicales simples». El trabajo de Levitt se basa en descripciones de estilos
musicales libres de restricciones. Desarrolló un lenguaje descriptivo que
permite expresar transformaciones de entradas o inputs musicalmente
significativas, como progresiones de acordes y líneas melódicas, mediante una
serie de relaciones restrictivas que llama «plantillas de estilo». Aplicó este
enfoque para describir una simulación de walking
bass de jazz tradicional, así como una simulación de ragtime en piano a
dos manos.
Los sistemas de Hiller-Isaacson y Moorer se
basaban también en enfoques heurísticos. Sin embargo, posiblemente el ejemplo
más genuino de uso temprano de técnicas de inteligencia artificial sea el de
Rader (1974), que usó programación de inteligencia artificial apoyada en reglas
en su generador de rondós (un canon circular al estilo de Frère Jacques). La
generación de la melodía y la armonía se basaba en reglas que describían cómo
pueden combinarse notas y acordes. El componente de inteligencia artificial más
interesante de este sistema son las reglas de aplicabilidad que determinan la
aplicabilidad de las reglas generadoras de melodía y acordes, y las medias
ponderadas que indican las probabilidades de que se aplique una regla mediante
un peso (o ponderación). En esta obra temprana ya se observa un uso de
metaconocimiento.
Pioneros de la inteligencia artificial como Herbert
Simon o Marvin Minsky también publicaron trabajos de importancia para la música
generada por ordenador. Simon y Sumner describen un lenguaje de patrones
formales para la música, así como un método de inducción para descubrir
patrones más o menos implícitos en obras musicales. Un ejemplo de patrón que
puede descubrirse sería: «La sección que abre está en do mayor, va seguida de
una sección en dominante y luego da una vuelta a la clave original». Aunque el
programa no se terminó, merece la pena señalar que fue uno de los primeros en
ocuparse de la importante cuestión de los modelos musicales, un tema que ha
sido, y sigue siendo, ampliamente estudiado. Por ejemplo, el uso de modelos
basados en gramáticas generativas ha sido, y es, un enfoque interesante y útil
de modelos musicales computacionales (Lerdahl y Jackendoff 1983).Marvin Minsky,
en su conocido artículo «Música, mente y conocimiento» (Minsky 1981), aborda el
aspecto fundamental de «cómo la música se graba en nuestra mente». Aplica sus
conceptos de agente y su papel en una sociedad de agentes como posible enfoque
para arrojar luz sobre esa cuestión. Por ejemplo, apunta que un agente puede no
hacer nada más que reparar en que la música tiene un ritmo particular. Otros
agentes pueden percibir pequeños patrones musicales, como repeticiones de un
tono, o diferencias, como la misma secuencia de notas tocadas una quinta más
aguda, etcétera. Su enfoque también contempla relaciones más complejas dentro
de una pieza musical mediante agentes de un orden superior capaces de reconocer
fragmentos más largos de música. Es importante aclarar que, en su artículo,
Minsky no trata de convencer al lector de la validez de su planteamiento, tan
solo apunta a su plausibilidad. Entre los sistemas de composición hay muchos
que abordan el problema de la armonización automática usando diversas técnicas
de inteligencia artificial. Uno de los primeros trabajos es el de Rothgeb
(1969). Creó un programa, SNOBOL, usando una serie de reglas del tipo «si la
línea de bajo (bass) de una triada desciende un semitono, entonces a la
siguiente nota del bajo le corresponde una sexta». El objetivo principal de
Rothgeb no era la armonización automática en sí misma, sino poner a prueba la
solidez computacional de dos teorías sobre armonización de dos líneas de bajo
del siglo xviii.
Uno de los trabajos más
completos sobre armonización es el de Ebcioglu (1993). Desarrolló un sistema
experto, CHORAL, para armonizar corales al estilo de Johann Sebastian Bach. A
CHORAL se le da una melodía y produce la armonización correspondiente usando
reglas heurísticas y restricciones. El sistema se implementó utilizando un
lenguaje de programación lógica diseñado por el autor. Un aspecto importante de
este trabajo es su uso de conjuntos de primitivas lógicas para representar los
distintos puntos de vista de la música (la perspectiva de los acordes, de los
intervalos de tiempo, la perspectiva melódica, etcétera). Esto se hizo para
resolver el problema de representar grandes cantidades de conocimiento musical
complejo.
MUSACT (Bharucha 1993)
emplea redes de neuronas artificiales para aprender un modelo de armonía
musical. Fue desarrollado con el fin de capturar intuiciones musicales de
cualidades armónicas. Por ejemplo, una de las cualidades de un acorde dominante
es crear en la audiencia la expectativa del acorde tónico que va a oír a
continuación. Los compositores pueden elegir violar estas expectativas en
grados diversos. MUSACT es capaz de aprender estas cualidades y generar
expectativas de distinto grado en un contexto armónico dado.
En HARMONET (Feulner 1993),
el problema de la armonización se afronta usando unas combinaciones de redes de
neuronas artificiales y técnicas de satisfacción de restricciones. La red de
neuronas aprende lo que se conoce como funcionalidad armónica de los acordes
(los acordes pueden tener función tónica, dominante, subdominante, etcétera) y
las restricciones se usan para las voces interiores de los acordes. El trabajo
de HARMONET se amplió en el sistema MELONET (Hörnel y Degenhardt 1997; Hörnel y
Menzel 1998). MELONET usa una red de neuronas artificiales para reproducir
estructuras de nivel superior en secuencias melódicas. A partir de una melodía,
el sistema inventa una armonización y una variación de estilo barroco de
cualquier voz coral. Según los autores, HARMONET y MELONET combinados
constituyen un poderoso sistema compositivo que genera variaciones cuya calidad
es similar a las de un organista humano experimentado.
Pachet y Roy (1998) también
usaron técnicas de satisfacción de restricciones para armonizar. Estas técnicas
explotan el hecho de que los conocimientos tanto melódicos como de armonía
imponen restricciones a los acordes posibles. La eficacia es, sin embargo, un
problema en estos enfoques de satisfacción de restricciones.
En la obra de Sabater et
al. (1998), el problema de la armonización se
aborda utilizando una combinación de reglas y razonamiento basado en casos.
Este enfoque parte de la observación de que la armonización fundamentada solo
en reglas suele fracasar porque, en general, «las reglas no hacen la música, es
la música la que hace las reglas». Así pues, en lugar de apoyarse únicamente en
un conjunto de reglas imperfectas, ¿por qué no aprovechar la fuente de las
reglas, es decir, las composiciones mismas? El razonamiento basado en casos
permite el uso de ejemplos de composiciones ya armonizadas como casos para
armonizaciones nuevas. Este sistema armoniza una melodía dada buscando primero
casos similares, ya armonizados; cuando esto falla, busca reglas generales de
armonía aplicables. Si no hay ninguna regla aplicable, el sistema falla y
retrocede a la decisión anterior. Los experimentos han demostrado que la
combinación de reglas y casos produce muchos menos fallos a la hora de
encontrar una armonización adecuada que si se usa solo una de las dos técnicas.
Otra ventaja del enfoque basado en casos es que cada pieza nueva correctamente
armonizada puede memorizarse y difundirse como nuevo ejemplo para armonizar
otras melodías; es decir, se da un proceso de aprendizaje por experiencia. De
hecho, cuantos más ejemplos tenga el sistema, con menor frecuencia necesita
recurrir a las reglas y, por tanto, falla menos. MUSE (Schwanauer 1993) también
es un sistema de aprendizaje que amplía una serie inicialmente pequeña de
restricciones de conducción de voces o voice
leading aprendiendo una serie de reglas de doblado y
conducción de voces. Lo hace reordenando la agenda de reglas y fragmentando las
reglas que satisfacen las restricciones de conducción de voces. MUSE consiguió
aprender algunas de las reglas estándar de conducción de voces incluidas en
manuales tradicionales de música tonal.
Morales, Manzanares et
al. (2001) desarrollaron un sistema llamado SICIB
capaz de componer música utilizando movimientos corporales. Este sistema usa
datos de sensores que lleva un bailarín y aplica reglas de inferencia para
emparejar sus gestos con música a tiempo real.
Sin duda, el trabajo más
conocido sobre composición por ordenador que usa inteligencia artificial es el
proyecto EMI de David Cope (Cope 1987, 1990), centrado en la simulación de
estilos de compositores diversos. Ha compuesto con éxito música al estilo de
Cope, Mozart, Palestrina, Albinoni. Brahms, Debussy, Bach, Rachmáninov, Chopin,
Stravinski y Bartók. Busca patrones recurrentes en varias (dos al menos) obras
de un compositor. Los patrones descubiertos se llaman signaturas. Puesto que
las signaturas varían según su localización, EMI usa una de las obras de un
compositor a modo de guía para fijarlas en sus ubicaciones adecuadas a la hora
de componer una pieza nueva. Para componer los motivos musicales entre
signaturas, EMI recurre a un analizador de reglas compositivas que identifica
las restricciones usadas por el compositor en sus obras. Este analizador tiene
en cuenta elementos musicales, como indicaciones para la conducción de notas,
uso de notas repetidas, etcétera, y las representa como un modelo estadístico
de las obras analizadas. El programa sigue este modelo para componer los
motivos que han de insertarse en los espacios vacíos entre signaturas. Para
insertarlos de modo correcto, EMI tiene que solucionar problemas como vincular
las partes inicial y final de las signaturas a los motivos que las rodean
evitando anomalías estilísticas, manteniendo movimientos de voz, manteniendo
las voces dentro de un registro vocal, etcétera. La inserción correcta se
consigue usando una Red de Transición Aumentada (Woods 1970). Los resultados,
aunque no perfectos, sí son coherentes con el estilo del compositor que se
busca imitar.
Sintetizar música expresiva
Una de las principales
limitaciones de la música generada por ordenador ha sido su falta de
expresividad, es decir, su falta de «gesto». El gesto es como los músicos
llaman a los matices de interpretación que son únicos y sutilmente
interpretativos. En otras palabras, creativos.
Uno de los primeros
intentos de abordar la expresividad en la música fue el de Johnson (1992),
quien desarrolló un sistema experto para determinar el tempo y la articulación
necesarios para interpretar las fugas del Clave
bien temperado de Bach. Las reglas se obtenían de dos
intérpretes humanos expertos. El resultado da el valor del tempo base y una
serie de indicaciones interpretativas acerca de la duración y articulación de
las notas que debe seguir el intérprete humano. Los resultados coinciden en
gran medida con las instrucciones que aparecen en ediciones comentadas y muy
conocidas del Clave bien temperado. La
principal limitación de este sistema es su falta de generalidad, porque solo
funciona bien con fugas compuestas en cuatro por cuatro. Para otros compases,
las reglas tendrían que ser distintas. Otra consecuencia obvia de esta falta de
generalidad es que las reglas solo sirven para fugas de Bach.
El trabajo del grupo KTH de
Estocolmo (Friberg, 1995; Friberg et
al. 1998, 2000; Bresin 2001) es uno de los
intentos a largo plazo más conocidos de desarrollar sistemas de interpretación.
Su último sistema, Director Musices, incorpora
reglas para tempo, transformaciones de dinámica y de articulación a música
generada por MIDI. Dichas reglas se infieren a partir de conocimientos
musicales teóricos y también de la experiencia, sobre todo usando el enfoque
llamado de análisis por síntesis. Las reglas se dividen en tres clases
principales: reglas de diferenciación, que resaltan las diferencias entre
escalas tonales; reglas de agrupamiento, que indican qué tonos deben ir juntos;
y reglas de conjunto, que sincronizan las distintas voces de un conjunto
o ensemble.
Canazza et
al. (1997) desarrollaron un sistema para analizar
cómo las intenciones expresivas de un músico se reflejan en la interpretación.
El análisis revela dos dimensiones expresivas distintas, una relacionada con la
energía (dinámica) y la otra relacionada con la cinética (rubato) de una pieza.
Los autores crearon, asimismo, un programa para generar interpretaciones
expresivas de acuerdo a estas dos dimensiones.
El trabajo de Dannenberg y
Derenyi (1998) también constituye un buen ejemplo de transformaciones de
articulación usando reglas construidas manualmente. Desarrollaron un
sintetizador de trompeta que combina un modelo físico con un modelo
interpretativo. La función del segundo es generar información de control para
el modelo físico mediante una serie de reglas extraídas manualmente del
análisis de unas colecciones de grabaciones de interpretaciones humanas.
Otra manera de enfocar la
transformación del tempo y la dinámica es recurriendo a técnicas de redes de
neuronas artificiales. En los trabajos de Bresin (1998) se implementa un
sistema que combina reglas de decisiones simbólicas con cadenas de neuronas
para simular el estilo de pianistas de carne y hueso. Los resultados de las
redes de neuronas expresan desviaciones de tiempo y volumen. Estas redes de
neuronas artificiales amplían la red estándar prealimentada con el algoritmo de
propagación hacia atrás con conexiones de retroalimentación de las neuronas de
salida (output) a las de entrada (input).
Podemos ver que, a excepción del trabajo del
grupo KTH, que contempla tres recursos expresivos, los otros sistemas se
limitan a dos, que pueden ser el rubato y la dinámica, o el rubato y la
articulación. Esta limitación tiene que ver con el empleo de reglas. De hecho,
el principal problema de los enfoques basados en reglas es que es muy difícil
encontrar reglas generales suficientes para recoger la variedad presente en
distintas interpretaciones de la misma pieza por el mismo músico e incluso para
la variedad dentro de una misma interpretación (Kendall y Carterette 1990).
Además, los diversos recursos expresivos interactúan entre sí. Es decir, las
reglas para la dinámica cambian solo cuando también se tiene en cuenta el
rubato. Obviamente, debido a esta interdependencia, cuantos más recursos
expresivos se intenten desarrollar, más difícil se vuelve encontrar las reglas
apropiadas.
Nosotros hemos creado un sistema de razonamiento
basado en casos llamado SaxEx (Arcos et al. 1998), un programa informático
capaz de sintetizar solos de saxo tenor de baladas de jazz de alta calidad
expresiva basados en casos de solos interpretados por humanos. Como se ha dicho
antes, los enfoques previos de dicho problema basados en casos no podían
manejar más de dos parámetros expresivos (como dinámica y rubato), porque es
demasiado complicado encontrar reglas lo bastante generales como para que
capten la variedad presente en interpretaciones expresivas. Además, los
distintos parámetros expresivos interactúan entre sí, dificultando aún más
encontrar reglas apropiadas que tengan en cuenta estas interacciones.
Con el razonamiento basado
en casos hemos demostrado que es posible tener en cuenta los cinco parámetros
expresivos más importantes: dinámica, rubato, vibrato, articulación y ataque de
las notas. Para ello, SaxEx usa una memoria de casos que contiene ejemplos de
interpretaciones humanas analizadas mediante técnicas de síntesis por modelado
de espectro (o SMS) y conocimientos musicales de fondo. La partitura de la
pieza a interpretar también la proporciona el sistema. La esencia del método
reside en analizar cada nota de entrada determinando (mediante el conocimiento
musical de fondo) su papel en la frase musical a la que pertenece, identificar
y recuperar (de la base de casos de interpretaciones humanas) notas con papeles
similares y, por último, transformar la nota de salida de modo que sus
propiedades expresivas (dinámica, rubato, vibrato, articulación y ataque) se
correspondan con los de la nota recuperada más similar. Cada nota de la base de
casos tiene anotaciones referidas a su papel en la frase musical a la que
pertenece, así como a sus valores expresivos. Es más, los casos no solo
contienen información sobre cada nota individual, sino que incluyen también
conocimiento contextual en lo que respecta a la frase. Por tanto, los casos en
este sistema tienen una representación compleja centrada en el objeto.
Aunque limitados a
interpretaciones monofónicas, los resultados son muy convincentes y demuestran
que el razonamiento basado en casos es una poderosa manera de usar directamente
los conocimientos de un intérprete humano que están implícitos en su manera de
tocar, en lugar de tratar de hacer explícitos dichos conocimientos mediante
reglas. Se pueden escuchar algunos ejemplos en http://www.iiia.csic.es/%7Earcos/noos/Demos/Example.html (Arcos y López de Mántaras 2001; López de Mántaras y
Arcos 2002; López de Mántaras y Arcos 2012), donde se describe este sistema
detalladamente.
A partir del trabajo
realizado para SaxEx, desarrollamos TempoExpress (Grachten et
al. 2004), un sistema de razonamiento basado en
casos para aplicar transformaciones musicalmente aceptables de tempo a
grabaciones monofónicas de interpretaciones musicales. TempoExpress cuenta con
una rica descripción de la expresividad musical de las interpretaciones que
incluye no solo desviaciones de tiempo o notas interpretadas, también
representa tipos de expresividad más rigurosos, como ornamentación,
consolidación y fragmentación de notas. Dentro del proceso de transformación
del tempo, la expresividad de la interpretación se ajusta de forma que el
resultado suene natural para el nuevo tempo. Se usa una base de casos de
melodías previamente interpretadas para inferir la expresividad más apropiada.
El problema de cambiar el tempo de una interpretación musical no es tan trivial
como pueda parecer, porque requiere gran cantidad de conocimientos musicales y
de pensamiento creativo. De hecho, cuando un músico interpreta una pieza con
distintos tempos, las interpretaciones no son versiones de distinta duración
las unas de las otras (como si la misma interpretación se tocara con distintas
velocidades). Con los cambios de tempo se producen variaciones de expresión
musical (Desain y Honing 1993). Estas variaciones no solo afectan la cadencia
de las notas, también pueden suponer, por ejemplo, el añadido o la supresión de
ornamentaciones o la consolidación/fragmentación de notas. Aparte del tempo,
hay otros factores de dominio específico que parecen desempeñar un papel
importante en la manera de interpretar una melodía, por ejemplo, la métrica y
estructura de las frases. La transformación del tempo es una de las tareas de
procesamiento posterior que se hacen de forma manual en los laboratorios de música.
Automatizar este proceso puede ser, por tanto, de interés comercial.
Otras aplicaciones del
razonamiento basado en casos para la música expresiva son las de Suzuki et
al. (1999) y las de Toboudic y Widmer (2003,
2004). Suzuki et al. (1999)
usan ejemplos de casos de interpretaciones expresivas para generar
interpretaciones múltiples de una pieza dada con variada expresión musical, sin
embargo manejan únicamente dos parámetros expresivos. Tobudic y Windmer (2003)
aplican aprendizaje basado en ejemplos también para abordar el problema de
generar interpretaciones expresivas. Su enfoque se usa para complementar un
modelo basado en reglas en notas con cierta capacidad predictiva en fraseo
musical. Más concretamente, el componente de aprendizaje basado en casos reconoce
patrones de interpretación de un concertista de piano a nivel de frase y
aprende cómo aplicarlos a nuevas piezas por analogía. Este enfoque ha generado
algunos resultados interesantes pero, tal y como reconocen los autores, no fue
convincente debido a la limitación que supone usar una representación de las
frases del tipo atributo-valor. Una representación tan simple no puede tener en
cuenta información estructural relevante de la pieza, tanto en el ámbito de
subfrase como de interfrase. En un artículo posterior, Tobudic y Widmer (2003)
lograron salvar en parte estas limitaciones utilizando una representación de
frases relacional.
Widmer et
al. (2009) describen un programa informático que
aprende a interpretar música de piano clásica de manera expresiva. El enfoque
es de uso intensivo de datos y está basado en el aprendizaje estadístico.
Interpretar música de manera expresiva requiere sin duda un alto grado de
creatividad, pero los autores adoptan una postura muy pragmática ante la
cuestión de si se puede afirmar que su programa es o no creativo y afirman que
«la creatividad está en el ojo del espectador». De hecho, el objetivo principal
de los autores es investigar y entender mejor la interpretación musical como
comportamiento creativo humano usando métodos de inteligencia artificial.
La posibilidad de que un ordenador interprete de manera
expresiva es un componente fundamental de los llamados hiperinstrumentos. Son instrumentos diseñados para aumentar el sonido musical
con unos matices idiosincráticos que le den expresividad humana y una sonoridad
rica y viva. Para hacer un hiperinstrumento, se coge un instrumento
tradicional, como por ejemplo un chelo, y se conecta a un ordenador mediante
sensores electrónicos en el mástil y el arco, se equipa con sensores también la
mano que sostiene el arco y se programa el ordenador con un sistema parecido a
SaxEx, que consigue analizar la manera en que el humano interpreta la pieza a
partir de la partitura, el conocimiento musical y las lecturas de los sensores.
Los resultados de este análisis permiten al hiperinstrumento desempeñar un
papel activo, alterando aspectos como el timbre, el tono, el ritmo y el fraseo,
así como generar una voz acompañante. En otras palabras, se obtiene un
instrumento capaz de hacerse su propio acompañamiento. Tod Machover, del Media
Lab del Massachusetts Institute of Technology, desarrolló un hiperchelo y el
gran chelista Yo-Yo Ma lo estrenó tocando una pieza compuesta por Tod Machover
titulada Begin Again Again (Volver a empezar otra vez) en el festival Tanglewood hace
varios años.
La improvisación musical es un proceso creativo muy complejo que
también ha sido simulado informáticamente. A menudo se denomina «composición
sobre la marcha» y es, por tanto, desde el punto de vista creativo, más
compleja que la composición y probablemente la más complicada de las tres
actividades musicales examinadas aquí. Uno de los primeros trabajos sobre
improvisación de los ordenadores es el sistema Flavors Band, de Fry (1984).
Flavors Band es un lenguaje procedimental embebido en LISP que sirve para
especificar estilos de jazz y de música popular. Su representación procedimental
permite generar partituras en un estilo preespecificado haciendo cambios en las
acotaciones de la partitura de entrada. Permite combinar funciones aleatorias y
restricciones musicales (acordes, modos, etcétera) para generar
improvisaciones. El resultado más notable de Flavors Band fue un interesante
arreglo de la línea de bajo y un solo improvisado de la composición de John
Coltrane Giant Steps.
GenJam (1994) desarrolla una simulación de músico de jazz aprendiendo
a improvisar mediante un algoritmo genético. Un humano hace el papel de función
de aptitud evaluando las improvisaciones del músico simulado. Papadopoulos y
Wiggins (1998) también usaron un algoritmo genético para improvisar melodías
de jazz a partir de una progresión de acordes dada. Al contrario
de GenJam, su programa incluye una función de aptitud que evalúa de manera
automática la calidad de las improvisaciones teniendo en cuenta ocho aspectos
distintos de la melodía improvisada, entre ellos, contorno melódico, duración
de las notas o distancias interválicas entre notas.
Franklin (2001) emplea redes de neuronas artificiales
recurrentes para aprender a improvisar solos de jazz a
partir de transcripciones de improvisaciones de solos de jazz del
saxofonista Sonny Rollins. Se usa un algoritmo de aprendizaje reforzado para
afinar el comportamiento de las redes neuronales. La función de recompensa
evalúa los solos creados por el sistema siguiendo criterios de armonía
jazzística y en relación al estilo de Rollins.
La falta de interactividad con un improvisador humano presente
en los enfoques anteriores ha sido criticada (Thom 2001) con el argumento de
que eliminan al músico de la creación física y espontánea de la melodía. Aunque
es cierto que la característica fundamental de la improvisación es la creación
espontánea y a tiempo real de una melodía, no lo es menos que la interactividad
no era uno de los objetivos de estos enfoques, y aun así consiguieron generar
improvisaciones muy interesantes. Thom (2001), con su sistema Band-out-of-a-Box
(BoB), aborda el problema de improvisación interactiva a tiempo real entre BoB
y un intérprete humano. En otras palabras, BoB es un «músico acompañante» para
improvisación a tiempo real. El enfoque de Thom sigue la teoría psicológica de
improvisación en jazz de Johnson-Laird (1991). Esta teoría se opone a la opinión
según la cual improvisar consiste en reordenar y transformar licks prememorizados
dentro de las restricciones de la armonía. En lugar de ello, propone un modelo
estocástico basado en un algoritmo voraz en un espacio restringido de notas
posibles de interpretar en un momento de tiempo determinado. La gran
contribución de Thom es que su sistema aprende estas restricciones, y con ellas
el modelo estocástico, del intérprete humano mediante un algoritmo de
agrupamiento probabilístico no supervisado. El modelo aprendido se usa para
extraer solos y convertirlos en modos de interpretar específicos para cada
usuario. Los parámetros de ese modelo aprendido se incorporan a continuación al
proceso estocástico, que genera los solos en respuesta a solos de cuatro
compases del improvisador humano. BoB ha sido muy bien valorado, una vez
puestos a prueba sus acompañamientos de solos en dos estilos diferentes, el del
saxofonista Charlie Parker y el del violinista Stéphane Grapelli.
Dannenberg (1993) desarrolló un notable sistema de improvisación
interactiva. La diferencia respecto al de Thom es que en el sistema de
Dannenberg la generación de música viene impulsada principalmente por los
objetivos del compositor, en lugar de los del intérprete. El sistema de
improvisación de Wessel (1998) está
más cerca del de Thom en el sentido de que también da importancia al
acompañamiento y realce de las improvisaciones en directo.
AARON es un sistema robótico, desarrollado a lo largo de muchos
años por el artista y programador Harold Cohen (1995), capaz de coger un pincel
con su brazo robótico y pintar en un lienzo sin ayuda. Pinta personas en un
jardín botánico no solo copiando un dibujo existente, sino generando tantos
dibujos únicos sobre este tema como sean necesarios. AARON nunca ha visto a una
persona paseando por un jardín botánico, pero se le han proporcionado
conocimientos sobre posturas corporales y plantas mediante reglas. Los
conocimientos de AARON y la manera en que los usa no son como el conocimiento
que nosotros, los humanos, tenemos y usamos, porque el conocimiento humano se
basa en experimentar el mundo, y las personas experimentan el mundo con sus
cuerpos, sus cerebros, sus sistemas reproductivos, cosas que no tienen los
ordenadores.
Sin embargo, al igual que ocurre con los humanos, los conocimientos
de AARON han sido adquiridos de forma acumulativa. Una vez que entiende el
concepto de racimo de hojas, por ejemplo, puede hacer uso de ese conocimiento
siempre que lo necesite. Para AARON, las plantas existen en términos de tamaño,
grosor de las ramas en relación a la altura, el ritmo al que las ramas
adelgazan a medida que crecen, el grado de ramificación, el ángulo al que
brotan las ramas, etcétera. Los mismos principios sirven para la formación de
hojas y de racimos. Manipulando estos factores, AARON es capaz de generar un
amplio espectro de tipos de plantas y nunca dibujará la misma planta dos veces,
ni siquiera cuando dibuje una serie de plantas de la misma especie. Además,
AARON debe saber en qué consiste el cuerpo humano, cuáles son sus diferentes
partes y su tamaño en relación con las otras. También tiene que saber cómo se
articulan las partes del cuerpo y cuáles son las clases y rango de movilidad de
cada articulación. Por último, y puesto que un cuerpo que se mueve de forma
coherente y no es una mera colección de partes que se mueven
independientemente, AARON necesita saber algo sobre cómo se coordinan los
movimientos corporales; por ejemplo, lo que tiene que hacer el cuerpo para
mantener el equilibrio.
VIII
17/03/2023
Uno de los sistemas más
avanzados de la actualidad da el salto a la industria de la automoción con un
grupo automovilístico puntero.
La implementación de inteligencias artificiales
en los coches ayudarán a los ocupantes.
ChatGPT es
la plataforma que ha experimentado un crecimiento
más rápido en la historia de internet. En tan solo dos meses ha alcanzado 100 millones de usuarios. Para hacerse una idea,
Instagram necesitó 26 meses para alcanzar esa cifra, Facebook 54 meses y Twitter
65 meses. Además, más de 13 millones de usuarios únicos
diarios se conectan a esta inteligencia artificial.
Pero ¿qué es ChatGPT? Se trata de un sistema de chat
soportado por una inteligencia artificial que
ha sido entrenada para mantener conversaciones.
Ha sido desarrollado por la compañía OpenAI y dispone
de más de 175 millones de parámetros
para realizar tareas relacionadas con el
lenguaje, desde la traducción hasta la generación de
textos.
La inteligencia artificial de ChatGPT ha sido entrenada (y
sigue entrenándose continuamente) para tener
charlas con cualquier persona y que, gracias a sus algoritmos,
pueda entender lo que se le está
preguntando, incluyendo adjetivos y variaciones que
se añadan a las frases, y responder de manera coherente.
A esta nueva
tecnología, que está democratizando el
empleo de inteligencias artificiales, se
le están buscando nuevas aplicaciones,
y cómo no, la industria de la automoción ha
puesto sus ojos sobre ella. De esta manera, se buscan nuevos horizontes en la
manera de interactuar con los
pasajeros de un coche.
Así lo ha
confirmado el vicepresidente de General Motors, Scott Miller, en una entrevista concedida a la agencia
de noticias Reuters. La compañía
estadounidense está explorando diferentes usos para
ChatGPT como parte de su acuerdo de colaboración con Microsoft. En palabras de Miller: “ChatGPT va a estar en todas partes”.
Pero ¿qué es lo que puede hacer una IA en un coche? Entre
otras muchas acciones, la implementación de ChatGPT en los automóviles ayudaría desde conocer
las características del vehículo que normalmente se encuentran en
el manual de usuario, hasta programar el código para abrir la puerta del garaje.
Además, la
idea es que también pueda acceder a información del
coche y devuelva respuestas que
sirvan para mejorar la conducción.
Lo cierto es
que General Motors, la
multinacional de la industria de la automoción afincada en Detroit, quiere ser
la primera marca que habilita este chatbot en
sus vehículos. Esta compañía, que durante 77 años fue
la más firma automovilística más grande del mundo,
quiere también ser la pionera en la inclusión de ChatGPT para
que ayude a conductores y ocupantes.
“Este cambio
(la inclusión de ChatGPT en la industria de la automoción) no se refiere a
únicamente a la evolución de los comandos de voz, sino que
significa que los clientes puedan esperar que sus futuros vehículos sean
mucho más capaces y ayuden, en
todos los sentidos, gracias a estas tecnologías emergentes”, declaró
un portavoz de GM hace unos días.
Actualmente
General Motors trabaja con dos asistentes de
voz: Siri y Google Assistant. Pero desde que en 2021 se asoció con Microsoft para la comercialización de coches autónomos, las
sinergias entre ambas compañías no han hecho más que crecer.
Microsoft es
el propietario de ChatGPT y al
igual que otras grandes empresas tecnológicas, ha intensificado sus esfuerzos
por integrar más tecnología en
los vehículos, desde sistemas de
infoentretenimiento a conducción autónoma, pasando por
sistemas operativos que controlan el rendimiento de la batería y otras
muchas funciones del vehículo.
https://motor.elpais.com/tecnologia/la-inteligencia-artificial-de-chatgpt-llega-a-los-coches/
Se cree que en 2026 las máquinas serán capaces de escribir
comentarios de texto mejor que los alumnos de bachillerato.
Conducir un camión, a partir de 2027, será más seguro que lo haga una máquina a
que lo haga una persona.
-IX-
La inteligencia artificial del
futuro tendrá un papel cada vez más importante en la vida
cotidiana. Se espera que desempeñe un papel clave en el
desarrollo de soluciones innovadoras para la automatización
de procesos, la mejora de la seguridad y
la eficiencia en la industria, así como en la
medicina y la educación. Entre otros muchos ámbitos de actuación. Además, se
espera que los avances en inteligencia artificial ayuden a mejorar la
calidad de vida de las personas al ofrecer soluciones a
los problemas sociales y ambientales. Y también tendrá
un papel decisivo en el desarrollo de nuevas tecnologías para
el hogar, como los asistentes virtuales, los robots autónomos y la computación
en la nube.
Hace tiempo que ya convivimos con
inteligencia artificial. Casi sin darnos cuenta, interactuamos
con aplicaciones, servicios y dispositivos que
integran de alguna manera inteligencia artificial más allá de los algoritmos o
comandos “tradicionales” con los que hemos convivido hasta ahora. Con mayor o
menor acierto, esta tecnología está ayudando a que tareas antes complejas y que
requerían mucho tiempo, ahora se resuelvan en unos minutos.
La pregunta que muchos nos hacemos hasta dónde
puede evolucionar. ¿Qué será capaz de hacer la
inteligencia artificial del futuro? Bien encaminada, resultará imprescindible
para que resolvamos grandes problemas que tenemos pendientes. Adaptarnos al
cambio climático, reducir nuestro impacto ambiental, satisfacer las necesidades
de toda la población, curar enfermedades y gozar de buena salud… Una lista de
deseos que, tarde o temprano, haremos
realidad. Solos o acompañados de la inteligencia artificial.
Un artículo de la prestigiosa revista Forbes se
aventura a predecir qué hará la inteligencia artificial del futuro. Y su
primera predicción tiene que ver con el método científico.
La base con la que la ciencia ha evolucionado, basándose en las evidencias, en
las pruebas fehacientes de que aquello que se teoriza es realmente así. Pero
probar y refutar teorías requiere tiempo, dinero y esfuerzo.
El futuro de la inteligencia artificial pasa por responder a
grandes preguntas. Y en el ámbito de la ciencia, gracias a los
modelos predictivos y al machine learning, las máquinas
podrán responder de inmediato a cuestiones que requieren meses o años de
investigación. Gracias al uso de la inteligencia artificial, se están obteniendo nuevos materiales que
responden a necesidades específicas. No es tan fácil como hacer una búsqueda en
Google, pero sí que acorta meses de trabajo con
pruebas prácticas. En cambio, la IA permite ver las posibilidades en abstracto
mediante modelos virtuales. Y elegir el camino correcto.
O como apunta Forbes, la inteligencia artificial
del futuro permitirá “una capacidad sin precedentes para analizar
enormes conjuntos de datos y descubrir
computacionalmente relaciones y patrones complejos.
La IA, que aumenta la inteligencia humana, está preparada para transformar el
proceso de investigación científica y desencadenar una nueva edad de oro de
los descubrimientos científicos en los próximos
años”.
La medicina
personalizada con inteligencia artificial (IA) es un
enfoque de tratamiento médico que utiliza la IA para ayudar a los médicos a
desarrollar un tratamiento personalizado para cada paciente.
Esto se basa en la idea de que cada persona es única y
que para obtener el mejor tratamiento posible, se necesita un enfoque
personalizado.
La
inteligencia artificial se utiliza para analizar la información de
salud recopilada sobre el paciente, como su historial médico, su genética y sus
datos de seguimiento de la salud. Esta información se puede utilizar para
ayudar a los médicos a identificar problemas de salud potenciales
y a desarrollar un tratamiento personalizado. También puede ayudar a los
médicos a determinar qué medicamentos son los más adecuados para
cada paciente. Esto se logra mediante el uso de algoritmos analíticos para
evaluar el historial médico de los pacientes y encontrar aquellos medicamentos
que tienen el mayor potencial de beneficio para cada caso en particular.
Otro
ámbito en el que la inteligencia artificial del futuro será de gran utilidad es
la mejora de la precisión de los diagnósticos.
Esto se logra mediante el uso de algoritmos de aprendizaje automático para
procesar la información de salud de los pacientes y encontrar patrones que
pueden ayudar a los médicos a identificar enfermedades e incluso prevenirlas.
Empresas
de los sectores financieros como bancos o aseguradoras también
llevan tiempo trabajando con inteligencia artificial. No es de extrañar
que nos beneficiemos de las posibilidades de la
inteligencia artificial del futuro incluso sin darnos cuenta. Y desde dos
prismas distintos: la seguridad de las
transacciones y la personalización de nuestra
experiencia como comprador.
En
primer lugar, gracias a la inteligencia artificial es posible prevenir el
fraude en tarjetas de crédito e implementar sistemas más
seguros para evitar robos, suplantación de identidad, garantizar los pagos y
cobros y/o tareas secundarias como verificar que las páginas son reales y
que los productos son los que se exponen. En definitiva, medidas que protegerán
a vendedores, compradores y, por el camino, a intermediarios como bancos,
plataformas de pagos, etc.
Y, por otro lado, la inteligencia artificial
puede ayudar a personalizar la experiencia de compra ofreciendo
aquello que necesitamos y/o andamos buscando más allá de sugerencias genéricas.
Es más. El nivel de personalización será tal que aprenderá de nuestros cambios
de tendencia o de preferencias. Un escalón más de lo que estamos acostumbrados
a ver en plataformas online que ya ofrecen personalizaciones bastante
acertadas a partir de nuestras búsquedas dentro o fuera de
sus aplicaciones. Y, por último. En relación a la experiencia de compra. La
inteligencia artificial será capaz de ofrecer atención
personalizada en tiempo real. Quien sabe si combinado con
realidad aumentada y realidad virtual y empleando avatares
virtuales o simplemente con un sistema de
chat o voz.
https://blogthinkbig.com/inteligencia-artificial-futuro
Dr. Iván
Seperiza Pasquali
Quilpué, Chile
Abrril de 2022
Portal
MUNDO MEJOR: http://www.mundomejorchile.com/
Correo
electrónico: isp2002@vtr.net