La inteligencia artificial (IA) se ha vuelto parte de nuestra vida cotidiana, tal es así, que hoy en día la usamos para planificar viajes, resolver dudas médicas, aprender idiomas o pedir recomendaciones; sin embargo, cuando se usa mal —o se confía demasiado— puede generar resultados inesperados: desde pérdidas económicas, hasta problemas legales o de salud.
LEA TAMBIÉN: Cómo activar el 'modo Avatar' en WhatsApp y personalizar el logo de la app
Recientemente, se hizo viral en TikTok la noticia de una pareja que confió en ChatGPT para organizar un viaje a Puerto Rico y terminó perdiendo su vuelo por un error en la información sobre visas. En base a ello, te contamos cuatro hechos insólitos donde el abuso o la confianza ciega en la IA generó consecuencias inesperadas.
Los creadores de contenido Mery Caldass y su pareja querían viajar a una isla en Puerto Rico. En lugar de consultar una página oficial, preguntaron a ChatGPT si necesitaban visa. La IA respondió que no, pero en el aeropuerto descubrieron que sí, dependiendo de su nacionalidad. Perdieron el vuelo y el dinero. “No me fío más de ese pedazo de hijo de...”, declaró la influencer en sus redes sociales, dejando en evidencia su enojo ante un error que pudo ser evitado.
@flexcidine_ Nos quedamos en Tierra
♬ original sound - EL PIPAS
Un hombre de 60 años le preguntó a la IA cómo mejorar su dieta. El chatbot le recomendó sustituir la sal común por el bromuro de sodio, un químico usado para limpiar piscinas. El resultado: intoxicación grave y hospitalización.
El hombre experimentó alucinaciones visuales y auditivas, sumados a una confusión mental, que hizo que vaya de emergencia al hospital. Los especialistas en salud le recordaron que, ante cualquier duda médica, lo más seguro es buscar información en fuentes confiables y acudir directamente a un profesional que pueda dar un diagnóstico y tratamiento adecuado.
En un concesionario de Chevrolet, un usuario logró manipular el chatbot de la compañía para que aceptara vender un Tahoe valorizado en 76 mil dólares por solo 1 dólar. El usuario en cuestión, viralizó el hecho en sus redes sociales, lo que provocó que muchos cibernautas intenten engañar al bot generado por IA. A raíz de ello, Chevrolet comenzó a bloquear a los usuarios que hacían preguntas confusas y mal intencionadas a sus chatbots.
LEA TAMBIÉN: Así está revolucionando la inteligencia artificial la experiencia del cliente
En la Universidad de Texas, un profesor suspendió a un gran número de estudiantes después de que ChatGPT indicara que algunos trabajos habían sido generados por IA. Sin embargo, se comprobó que esto no era así y se trató de un error del sistema que incurrió al detectar texto artificial.
Para resolver el conflicto, el profesor propuso una tarea extra que permitiera a los estudiantes evitar la desaprobación. No obstante, los alumnos presentaron pruebas de que no habían usado la tecnología de OpenAI, como las marcas de tiempo de Google Docs que mostraban su proceso de trabajo.