IA generativa. ver oir, hablar



OpenAI
 ha informado hace pocos días que ChatGPT "ve, escucha y habla" gracias a sus nuevas funcionalidades. Puede parecer  Her, pero evidentemente no se trata de una película de ciencia ficción, sino de una realidad que estará a nuestra disposición en breve. Bajo pago, ya que no olvidemos, como ya hemos hecho en anteriores ocasiones, que esta empresa no es una ONG

La actualización permite a la aplicación analizar imágenes y ofrecer respuestas basadas en su contenido. Por ejemplo, los usuarios pueden cargar la imagen de unas frutas  y verduras y pedir, a través de instrucciones o prompts, conocer sus propiedades o realizar recetas. Aunque los resultados no serán la panacea, tal como relata Kevin Roose en un artículo en The New York Times. Durante su análisis, ChatGPT no pudo resolver un crucigrama, ni identificar correctamente uno de los juguetes de sus hijos. En cuanto a la interacción por voz a través de IOS y Android la voz parece fluida y real, pero no deja de recordar a Siri o Alexa.

Es evidente que estas nuevas funcionalidades podrían ser muy útiles, por ejemplo, para personas con discapacidad visual, pero la cuestión que nos preocupa es: ¿cómo ha llegado a tener esa capacidad?, ¿qué bases de datos se han analizado para llegar a alcanzar este nivel de aprendizaje? Tendremos que seguir los pasos sobre su evolución y los problemas éticos que comporta tanto su desarrollo como su uso.

Write a comment