La especialista en marketing y tecnología Bibi Pérez visitó los estudios de Radio Buenos Aires AM 1350 para analizar el impacto de la inteligencia artificial en la vida cotidiana y advirtió sobre un problema cada vez más discutido: los errores y “alucinaciones” de herramientas como ChatGPT.
Durante la charla, Pérez explicó que muchas veces la inteligencia artificial responde con datos incorrectos porque toma información de internet sin verificar su veracidad. “ChatGPT en realidad manda fruta. No es que miente con intención, pero busca información y a veces te responde cualquier cosa”, señaló.
Para ilustrarlo, relató experimentos en los que usuarios publicaron información falsa en internet y luego la IA la tomó como verdadera. “Subieron textos inventando premios o historias y cuando después le preguntaron a la IA, respondió como si fuera real”, explicó.
Según la especialista, el problema surge cuando las personas utilizan la inteligencia artificial como si fuera una fuente definitiva de conocimiento. “Hoy mucha gente usa la IA como experto: para estudiar, investigar o incluso pedir consejos personales. Pero es una herramienta y tiene errores”, advirtió.
En ese sentido, recomendó tomar precauciones al utilizar este tipo de tecnología. “Una forma de evitar que ChatGPT mande fruta es pedirle siempre las fuentes y los links de donde saca la información”, indicó. También sugirió limitar la búsqueda a sitios confiables: “Podés pedirle que solo cite papers, universidades o portales de noticias”.
Pérez remarcó que la inteligencia artificial puede ser muy útil, pero requiere criterio humano para verificar los datos. “La IA tiene un futuro increíble, pero recién empieza. Hay que usarla como herramienta y no confiar ciegamente en lo que dice”, concluyó.
Escuchá la nota completa en nuestro canal de YouTube @radiobuenosaires.
Durante la charla, Pérez explicó que muchas veces la inteligencia artificial responde con datos incorrectos porque toma información de internet sin verificar su veracidad. “ChatGPT en realidad manda fruta. No es que miente con intención, pero busca información y a veces te responde cualquier cosa”, señaló.
Para ilustrarlo, relató experimentos en los que usuarios publicaron información falsa en internet y luego la IA la tomó como verdadera. “Subieron textos inventando premios o historias y cuando después le preguntaron a la IA, respondió como si fuera real”, explicó.
Según la especialista, el problema surge cuando las personas utilizan la inteligencia artificial como si fuera una fuente definitiva de conocimiento. “Hoy mucha gente usa la IA como experto: para estudiar, investigar o incluso pedir consejos personales. Pero es una herramienta y tiene errores”, advirtió.
En ese sentido, recomendó tomar precauciones al utilizar este tipo de tecnología. “Una forma de evitar que ChatGPT mande fruta es pedirle siempre las fuentes y los links de donde saca la información”, indicó. También sugirió limitar la búsqueda a sitios confiables: “Podés pedirle que solo cite papers, universidades o portales de noticias”.
Pérez remarcó que la inteligencia artificial puede ser muy útil, pero requiere criterio humano para verificar los datos. “La IA tiene un futuro increíble, pero recién empieza. Hay que usarla como herramienta y no confiar ciegamente en lo que dice”, concluyó.
Escuchá la nota completa en nuestro canal de YouTube @radiobuenosaires.
NOTICIAS RELACIONADAS
-
Buenas Tardes Buenos Aires“La IA miente”: advierten sobre los errores de ChatGPT y cómo evitar caer en información falsa -
By PassSesgos en la IA: Por qué los algoritmos pueden ser machistas o racistas -
By Pass"La Cirila de la fantasía": El Citroën rosa que cautivó a Alejandro Sanz en Buenos Aires -
El SemáforoDenuncian que una empleada del Subte fue echada tras sufrir acoso