Saltar al contenido

Lo que está haciendo la gente con la IA te va a dejar sin palabras

Una práctica insólita y peligrosa está creciendo en internet: personas que confían en una IA para realizarse tratamientos estéticos por su cuenta. El fenómeno revela un preocupante uso de la tecnología y plantea serias dudas sobre los límites del autocuidado digital. ¿Hasta dónde se puede llegar con tal de evitar una consulta médica?

El uso de la inteligencia artificial como herramienta cotidiana ya es una realidad. Desde escribir textos hasta resolver dudas complejas, millones de personas recurren cada día a sistemas como ChatGPT. Pero lo que en principio parece práctico y útil, puede convertirse en una auténtica bomba de relojería cuando se trata de la salud. El nuevo fenómeno viral deja claro que el riesgo va mucho más allá de lo que imaginábamos.

La moda inquietante del “hazlo tú mismo” estético

Cada vez más usuarios, especialmente en comunidades como la de Reddit llamada DIYaesthetics, comparten experiencias y consejos sobre cómo inyectarse bótox o ácido hialurónico en casa, sin formación médica ni supervisión. Lo más alarmante es que muchos de ellos reconocen haber acudido a ChatGPT para saber cómo hacerlo: qué aguja usar, a qué profundidad inyectar o qué zona del rostro es la más adecuada.

Lo que está haciendo la gente con la IA te va a dejar sin palabras
© Matheus Bertelli- Pexels

En uno de los casos más comentados, una usuaria preguntó a la IA si debía usar guantes durante el procedimiento. Las respuestas no solo omitieron alertarla sobre los peligros, sino que otros usuarios validaron la consulta sin mostrar preocupación. En otro hilo, tras sufrir una deformación en la cara, otra persona volvió a preguntar a la IA qué podría haber pasado. La respuesta, aunque aparentemente tranquilizadora, carecía del rigor clínico necesario.

IA como médico improvisado: una tendencia creciente

El fenómeno no se limita al mundo estético. Muchas personas han empezado a usar herramientas de IA como si fuesen médicos de cabecera, especialmente en temas de salud mental o para obtener diagnósticos rápidos y gratuitos. Algunos estudios incluso aseguran que ChatGPT ofrece respuestas más claras que los servicios de atención médica online, aunque otros destacan que más del 30% de sus respuestas médicas contienen errores.

Este tipo de comportamiento refleja una mezcla de desesperación, desconocimiento y confianza excesiva en la tecnología. La combinación puede resultar muy peligrosa si no se establece un marco de uso responsable.

Lo que está haciendo la gente con la IA te va a dejar sin palabras
© Pavel Danilyuk- Pexels

IA en la medicina: potencial sí, pero con límites

No todo es negativo. La inteligencia artificial se ha convertido en una aliada poderosa en el ámbito sanitario: en China, por ejemplo, se está utilizando para detectar cáncer de páncreas, y en muchos laboratorios ayuda a acelerar la investigación frente a bacterias resistentes. El problema surge cuando se confunde una herramienta de apoyo con un sustituto del criterio médico profesional.

La reflexión es clara: el peligro no está en la inteligencia artificial en sí, sino en cómo decidimos utilizarla. Mientras puede ayudarnos a avanzar en ciencia y medicina, no debería ser la guía para procedimientos delicados que ponen en riesgo nuestra salud. Y menos aún, cuando se trata de manipular agujas frente al espejo.

Fuente: Xataka.

También te puede interesar