CRUDA DEFINICIÓN

La advertencia de un médico sobre el uso de auriculares Bluetooth: "Es como ponerte un microondas en la cabeza"

Un especialista en longevidad analizó cuál puede ser el daño que produce el uso constante y por un largo tiempo este tipo de dispositivos
Por iProfesional
TECNOLOGÍA - 25 de Febrero, 2026

La preocupación por la salud y la longevidad gana cada vez más espacio en la agenda cotidiana y, en ese marco, el uso diario de auriculares inalámbricos volvió a quedar bajo la lupa. La cercanía permanente de estos dispositivos con la cabeza y el cerebro alimentó durante años dudas y temores, especialmente en torno a la tecnología Bluetooth.

El médico Patricio Ochoa, especializado en longevidad, abordó el tema y analizó si existe un riesgo real asociado a este tipo de dispositivos. Para introducir el debate, lanzó una frase que suele generar impacto inmediato: "Usar auriculares Bluetooth es básicamente como ponerte un microondas en la cabeza".

Sin embargo, el propio especialista se encargó de aclarar que esa comparación, aunque llamativa, puede resultar engañosa si no se explica la diferencia central entre ambos aparatos.

Cómo puede afectar el uso de auriculares Bluetooth, según un especialista

Desde el punto de vista técnico, tanto los auriculares Bluetooth como los hornos microondas operan en una frecuencia cercana a los 2,4 GHz, es decir, ondas electromagnéticas que oscilan alrededor de 2.400 millones de veces por segundo. Esa coincidencia es la que suele alimentar la analogía. Pero, según remarcó Ochoa, frecuencia similar no implica efecto similar en el cuerpo humano.

La clave, explicó, no está en la frecuencia sino en la potencia y la cantidad de energía emitida. Un horno microondas está diseñado para transferir grandes cantidades de energía y generar calor, lo que permite calentar alimentos. En cambio, la energía que emiten los auriculares inalámbricos es extremadamente baja, insuficiente para elevar la temperatura de los tejidos o provocar daño en las neuronas.

En ese sentido, la Organización Mundial de la Salud analizó numerosos estudios vinculados a la exposición a radiofrecuencia en niveles comparables a los del Bluetooth. La conclusión general fue clara: no existen evidencias consistentes de que este tipo de exposiciones, en condiciones normales de uso, provoquen daños cerebrales o alteraciones celulares.

Ochoa también hizo una aclaración habitual en el ámbito científico: no existe el riesgo cero absoluto. Las ondas de radiofrecuencia están clasificadas como "posiblemente carcinogénicas", una categoría preventiva que no implica una relación causal comprobada, sino que indica que no puede descartarse completamente un efecto ante exposiciones extremas o poco habituales.

En la práctica, y de acuerdo con la evidencia disponible hasta ahora, no hay pruebas concluyentes de que el uso cotidiano de auriculares Bluetooth represente un peligro para la salud. El consenso científico sostiene que, en niveles normales, estos dispositivos no generan el tipo de energía necesaria para causar daño en el cerebro ni en otros tejidos del cuerpo.

Los riesgos de la IA en la salud mental

La inteligencia artificial (IA) se consolidó como una confidente digital para millones de personas. Lo que empezó como una herramienta innovadora para organizar ideas o combatir la soledad, hoy muestra una faceta preocupante. En ciertos contextos clínicos, esa voz automatizada que responde con docilidad y coherencia refuerza los fantasmas mentales de quienes ya conviven con una enorme fragilidad psíquica.

Según un análisis reciente, publicado en la revista Acta Psychiatrica Scandinavica, los chatbots generativos, con ChatGPT a la cabeza, pueden agravar delirios, fomentar conductas perjudiciales o intensificar trastornos alimentarios en individuos con enfermedades mentales severas. Estos datos surgen de historiales médicos reales.

El psiquiatra Søren Dinesen Østergaard, profesor del Hospital Universitario de Aarhus en Dinamarca, lideró esta investigación. El objetivo central fue explorar la influencia de estas tecnologías sobre poblaciones vulnerables dentro de un entorno clínico auténtico. De esta forma, el equipo profesional logró abandonar el terreno de la mera intuición para basar sus conclusiones en evidencia concreta.

Los chatbots generativos operan gracias a modelos de lenguaje de gran escala. Estos sistemas matemáticos complejos procesan cantidades inmensas de texto de Internet. Cuando un usuario escribe una pregunta, el programa no piensa con una lógica humana: simplemente calcula probabilidades y selecciona la palabra más adecuada para cada secuencia. El resultado final es un discurso tan fluido que genera la ilusión de un diálogo real.

Sin embargo, esa naturalidad puede transformarse en un arma de doble filo. Los desarrolladores diseñan estos sistemas para ser complacientes y para ofrecer respuestas que satisfagan al interlocutor. En la vida cotidiana, esta característica resulta muy atractiva, pero en el ámbito psiquiátrico desata problemas serios. Un delirio se consolida si la máquina valida la narrativa del paciente. La confirmación constante cristaliza la distorsión de la realidad.

Para investigar este fenómeno, el equipo danés examinó casi 54.000 historiales clínicos de pacientes atendidos entre septiembre de 2022 y junio de 2025. Los investigadores rastrearon menciones a términos específicos ligados a la inteligencia artificial para no dejar cabos sueltos. El filtro inicial arrojó 181 notas con menciones en 126 pacientes. Tras una revisión detallada, los especialistas identificaron 38 casos donde el uso de la tecnología se asoció con consecuencias dañinas.

En 11 de esos casos, los médicos observaron un deterioro en los cuadros de delirio. Según explicó Østergaard, los algoritmos poseen una tendencia inherente a darles la razón a los usuarios, un factor muy delicado si la persona ya presenta síntomas psicóticos o desórdenes severos.

Más allá de los delirios, el estudio detectó otros efectos graves. Seis pacientes manifestaron pensamientos suicidas o buscaron información sobre métodos para lesionarse a través de la interfaz virtual. En cinco situaciones puntuales, el software contribuyó a fortalecer conductas obsesivas vinculadas al recuento de calorías. Así, la conversación digital funcionó como un catalizador del malestar interno.

Por supuesto, el panorama no es del todo negativo en la adopción de estas plataformas. Un grupo de 32 pacientes utilizó estas herramientas con fines constructivos, ya sea para comprender mejor sus propios síntomas o para mitigar la soledad cotidiana. La tecnología no es intrínsecamente mala, pero la comunidad médica advierte que tampoco resulta inocua.

Este escenario plantea un interrogante crucial sobre la responsabilidad corporativa de las big tech. Las grandes compañías tecnológicas no diseñaron estos productos como terapias médicas. Pese a ello, muchas personas los adoptan como apoyo psicológico informal. La empatía programada no equivale a la comprensión clínica humana. Quizás el verdadero desafío actual de la industria no sea silenciar a la máquina, sino educar a los usuarios para interactuar con ella desde la máxima prudencia.

Te puede interesar

Secciones