La actualización permite a la aplicación analizar imágenes y ofrecer respuestas basadas en su contenido. Por ejemplo, los usuarios pueden cargar la imagen de unas frutas y verduras y pedir, a través de instrucciones o prompts, conocer sus propiedades o realizar recetas. Aunque los resultados no serán la panacea, tal como relata Kevin Roose en un artículo en The New York Times. Durante su análisis, ChatGPT no pudo resolver un crucigrama, ni identificar correctamente uno de los juguetes de sus hijos. En cuanto a la interacción por voz a través de IOS y Android la voz parece fluida y real, pero no deja de recordar a Siri o Alexa.
Es evidente que estas nuevas funcionalidades podrían ser muy útiles, por ejemplo, para personas con discapacidad visual, pero la cuestión que nos preocupa es: ¿cómo ha llegado a tener esa capacidad?, ¿qué bases de datos se han analizado para llegar a alcanzar este nivel de aprendizaje? Tendremos que seguir los pasos sobre su evolución y los problemas éticos que comporta tanto su desarrollo como su uso.
Foto: Solen Feyissa (Unsplash)
Write a comment
Publicar un comentario