Secciones

  • Portada
  • Actualidad
  • Opinión
  • Actualidad general
  • Clasificados
  • Cartelera y Tv

La herencia genética de humanos primitivos de siberia afecta a la salud mental de las personas

E-mail Compartir

Un estudio logró identificar que la herencia genética de una población humana primitiva extinta de Asia, los denisovanos, ha dejado huella en la salud mental de los actuales humanos.

La investigación, que publica la revista Plos Genetics, ha sido dirigida por científicos del Instituto de Biología Evolutiva (IBE) y del Departamento de Medicina y Ciencias de la Vida (MELIS) de la Universidad Pompeu Fabra (UPF) de Barcelona (España).

El estudio, liderado por la investigadora del IBE Elena Bosch y el científico de MELIS-UPF Rubén Vicente, apunta que la secuencia de ADN de los humanos conserva variantes genéticas de origen denisovano.

Los denisovanos son una población de humanos primitivos que vivieron en Asia hace miles de años, en zonas donde también habitó el homo sapiens, por lo que hubo cruces entre ambos.

Estos homínidos fueron identificados con pruebas de ADN tras el hallazgo en 2010 de restos óseos en las cuevas de Denísova, en la república de Altái, en Siberia. Los científicos estiman que su origen está en una migración desde Africa diferente a la de los neandertales y los homo sapiens.

Hallazgos

El estudio se ha centrado en una alteración en la regulación del zinc, elemento que transporta información del exterior hacia las células y que influye en la excitabilidad del sistema nervioso, además de tener un papel fundamental en la salud mental de las personas.

Para los investigadores esta alteración, procedente de los denisovanos, pasó a los homo sapiens y se extendió por todo el mundo, excepto en África.

Esta variante en el zinc se asocia con una mayor predisposición a sufrir algunas enfermedades, entre ellas la anorexia nerviosa, el trastorno de hiperactividad, de espectro autista, bipolar u obsesivo compulsivo, así como la depresión y la esquizofrenia.

El estudio también señala que esta adaptación genética observada en el zinc pudo representar una ventaja evolutiva en la adaptación al frío.

Según los investigadores, la variante genera un nuevo equilibrio del zinc dentro de la célula que promueve un cambio en el metabolismo que, al parecer, permitió a los humanos hacer frente a un clima hostil.

Las estafas con imágenes deepfake se hacen cada vez más comunes

EFECTOS. Varios famosos han sido víctimas de videos de ellos creados usando inteligencia artificial para perpetrar engaños en las redes.
E-mail Compartir

Agencias

El youtuber MrBeast, cuyo nombre real es Jimmy Donaldson y tiene casi 200 millones de seguidores, y el actor ganador de dos óscar Tom Hanks tienen algo en común: los dos han sido blanco este mes de estafas difundidas en las redes sociales que usan una inteligencia artificial (IA) generativa conocida como "deepfake".

En los "deepfakes" se puede manipular el rostro de una persona para que actúe y diga lo que el creador quiera.

En el último año, esta tecnología se ha vuelto más popular y sofisticada, por lo que cada vez es más difícil detectar este tipo de manipulación audiovisual.

Una "oferta"

En el caso de Donaldson, youtuber de 25 años que es conocido por regalar a sus suscriptores casas, automóviles y dinero en general y es extremadamente popular entre los más jóvenes, la estafa usó "deepfake" para crear un vídeo en el que el creador de contenido decía que regalaba el último modelo de iPhone por 2 dólares (1,90 euros).

"Si estás viendo este vídeo, eres una de las 10.000 personas afortunadas que recibirán un iPhone 15 Pro por sólo 2 dólares. Soy MrBeast y voy a realizar el sorteo de iPhone 15 más grande del mundo. Haz clic en el enlace a continuación para reclamar el tuyo ahora", decía el "deepfake" de Donaldson difundido en TikTok, en un vídeo que ya fue retirado de la plataforma.

Sin embargo, la letra pequeña de ese enlace indicaba que se trataba de un programa de inscripción automática mensual, en el que había un cargo inicial de 6,95 dólares (que se puede confundir con un gasto de envío) y luego un pago mensual indefinido de 139,67 dólares.

Los famosos alertan

"Mucha gente está recibiendo este anuncio fraudulento mío de 'deepfake'... ¿Están las plataformas de redes sociales preparadas para manejar el aumento de los 'deepfakes' de IA? Este es un problema grave", escribió en su cuenta de X (antes Twitter) Donaldson.

Según cuenta a EFE Satnam Narang, ingeniero principal de investigación de Tenable y conocido como el "susurrador de las estafas en redes sociales", el vídeo falso de Donaldson puede pasar por creíble si no se presta especial atención, pero no es perfecto.

"Si se mira su labio superior y su falta de movimiento, se nota que no es natural", relata el experto.

Hanks también alertó a sus seguidores en Instagram que él "no tenía nada que ver" con un vídeo "generado por IA" en el que "promociona un plan dental".

El protagonista de "Forrest Gump" ha expresado en varias ocasiones su preocupación por el uso de la IA en el cine y la televisión.

No obstante, se ha servido de esta tecnología en cintas como la película animada "The Polar Express", que en 2004 usó imágenes generadas por computadora (CGI) para crear su personaje, o su último trabajo más reciente, "A Man Called Otto ", para parecer más joven en algunas escenas.

Alcances

Narang asegura que han sido muchos los famosos que han sido afectados por esta manipulación este año, como fue el caso de Elon Musk, una de las personas más ricas del mundo, en un vídeo que promocionaba criptomonedas.

La mayoría de las redes sociales establecen en su reglamento que el contenido sintético o manipulado que se publique debe ser etiquetado como tal, pero no siempre son capaces de detectar y eliminar las publicaciones que se saltan estas normas.

Lo más complejo de la situación es que no existen hasta ahora máquinas que sean capaces de señalar rápidamente y a ciencia cierta que un contenido (ya sea un texto, una foto o un vídeo) haya sido generado con IA.

Lo anterior es peligroso no solo por las posibles estafas, sino también por sus efectos sobre la desinformación en general, sobre todo si se trata de conflictos bélicos o elecciones.

En tanto, según aconseja Satnam Narang, lo mejor es que los propios usuarios de redes siempre desconfíen, investiguen el perfil que publica la información -incluso si tienen el símbolo de cuenta verificada- y lean siempre la letra pequeña de los diversos mensajes que se les puedan presentar.

Según una publicación en el sitio de Kaspersky, una imagen deepfake puede detectarse al poner atención a movimientos bruscos, cambios de iluminación de un fotograma al siguiente, variaciones en el tono de la piel, parpadeos extraños o ausencia de estos, además de falta se sintonía entre los labios y el habla.