Javascript is not enabled.

Javascript must be enabled to use this site. Please enable Javascript in your browser and try again.

Skip to content
Content starts here
CLOSE ×
Buscar
Leaving AARP.org Website

You are now leaving AARP.org and going to a website that is not operated by AARP. A different privacy policy and terms of service will apply.

Por qué la basura de la IA es peligrosa y qué puedes hacer para detectarla

Los videos virales generados por inteligencia artificial pueden parecer inquietantemente reales.


generic-video-poster

Durante años, se ha advertido a la gente que no crea todo lo que lee en internet o en las redes sociales, y con la aparición de los llamados "deepfakes" (ultrafalsos), tampoco todo lo que ven o escuchan es confiable. Los videos cortos, cada vez más fáciles de crear, conocidos como “AI slop” (basura de IA) han aumentado esas preocupaciones.

De hecho, estos últimos videos con inteligencia artificial, que puedes generar en minutos simplemente ingresando texto o fotos, son un claro contraste con el contenido mediocre, de mala calidad y a veces grotesco que había antes, una de las principales razones por las que toda la categoría ganó el poco halagador apodo de “AI slop” en primer lugar.

Image Alt Attribute

Membresía de AARP: $15 por tu primer año cuando te inscribes en la renovación automática.

Obtén acceso inmediato a productos exclusivos para socios y cientos de descuentos, una segunda membresía gratis y una suscripción a AARP The Magazine.
Únete a AARP

Pero la inteligencia artificial está volviéndose más pulida y, aunque no es perfecta, es mucho menos descuidada, lo que hace más difícil detectar qué es real.

El pasado octubre, cuando el desarrollador de ChatGPT, OpenAI, anunció que bloquearía los videoclips de inteligencia artificial generados por usuarios que fueran "irrespetuosos" y vulgares, representando la imagen del reverendo Dr. Martin Luther King Jr. en la aplicación de creación de videos Sora 2 de la compañía, atrajo nuevamente la atención sobre la basura de la IA y deepfakes en internet.

Videos falsos al estilo de TikTok (en inglés), como los de Sora, que para ciertos usuarios de pago en la versión web pueden durar hasta 25 segundos, pueden parecer inquietantemente pulidos y han estado inundando las redes sociales.

La aplicación de Sora para iOS permite a los usuarios que no pagan crear fácilmente videos de IA de hasta 15 segundos, aunque el número de videos que una persona puede producir en un solo día es limitado. Sora saltó a la cima de las listas de aplicaciones gratuitas descargadas en la App Store de Apple después de su lanzamiento a finales de septiembre, a pesar de que inicialmente requería un código de invitación para usarla. Una versión para Android de Sora también llegó a la cima de las listas gratuitas de Google Play Store cuando apareció semanas después.

La versión web se lanzó al público el año pasado.

Otras herramientas de IA, como Veo 3 en Gemini de Google, Midjourney V1 y Meta Vibes, también están bajando la barrera para que casi cualquiera pueda generar videoclips que pueden ser inquietantemente realistas.

Los deepfakes están diseñados para imitar a una persona o situación real a través de voz o imágenes. Fotos falsas del difunto papa Francisco vistiendo un abrigo de diseñador se hicieron famosas hace un par de años. Videos circulando de Taylor Swift promocionando utensilios de cocina gratis también eran falsos.

Sora y sus similares pueden crear lo que equivale a deepfakes de alta resolución en esteroides.

Entretenimiento superficial

Algunos de los videos más nuevos de IA son memes divertidos y traviesos, entretenidos o, como mucho de lo que pasa por el ciberespacio hoy en día, francamente tontos, desde un gato en un ring de artes marciales mixtas celebrando un nocaut hasta un imitador de Elvis Presley cantando sobre hacer un sándwich de mantequilla de maní y mermelada. Estos generalmente están producidos de manera más pulida que lo que había antes, incluso si el contenido escandaloso debería ser una pista de que lo que estás viendo no es exactamente realista.

Mickey Mouse se une a Sora

Las líneas se están borrando. OpenAI acaba de cerrar un acuerdo con Walt Disney para llevar a Mickey Mouse, Ariel, Cenicienta, Luke Skywalker y más de 200 otros personajes, disfraces y accesorios con licencia de Disney, Marvel, Pixar y Star Wars a Sora.

A partir de principios del 2026, podrás ver videos cortos seleccionados de Sora con esos personajes de Disney, incluso en el servicio de transmisión Disney+, y generar tus propios videos de IA basados en tus propias indicaciones de usuario. Disney especificó que el acuerdo “no incluye ninguna semejanza o voces de talento” y que Disney y OpenAI “afirmaron un compromiso compartido para mantener controles robustos para prevenir la generación de contenido ilegal o dañino”.

Preocupaciones de mal uso

Pero todavía hay consecuencias potencialmente preocupantes asociadas con los derechos de autor, engaños, desinformación y la mayor dificultad para determinar qué es creíble y qué no en los videos generados por IA.

Hogar y tecnología

Consumer Cellular

Descuento de un 5% en la tarifa mensual y un 30% en accesorios

See more Hogar y tecnología offers >

“Las barreras de entrada para crear desinformación y estafas con IA son más bajas que nunca, y la tecnología es mejor que nunca”, dice Alex Mahadevan, director de MediaWise en el Instituto Poynter. “Creo que lo que ves en Sora es la convergencia de la basura de la IA y deepfakes”.

Por supuesto, los deepfakes han existido durante varios años, pero la gente generalmente podía darse cuenta de lo que no era real por imperfecciones visuales reveladoras: un dedo extra en la mano de alguien, por ejemplo, o pupilas desalineadas.

Hoy en día, es más difícil de distinguir.

Un estudio de investigación reciente de The CareSide, un proveedor de cuidados en Australia, examinó qué tan bien una muestra de casi 3,200 adultos mayores en países de habla inglesa, incluido EE.UU., podía distinguir correctamente entre contenido generado por IA y por humanos: texto, fotos, audio y, sí, video. Las puntuaciones disminuyeron significativamente con la edad, y el estudio encontró que “los adultos mayores pueden detectar contenido generado por IA solo moderadamente mejor que lanzar una moneda al aire”.

Los grupos de edad más jóvenes también estaban lejos de ser perfectos, encontró el estudio.

En octubre, Newsguard, una organización que califica la confiabilidad de los sitios web de noticias e información, encontró que Sora generó videos convincentes que avanzaron “afirmaciones demostrablemente falsas” el 80% de las veces cuando se le solicitó hacerlo.

“Estás viendo la capacidad de generar personas reales, y podrían ser figuras históricas”, añade Mahadevan. “Puedes visitar [Sora] y hacer que el creador de la tecnología, Sam Altman, diga [algo como] ‘Soy Sam Altman, fundé ChatGPT, y aquí está la razón por la que quiero que inviertas en mi criptomoneda’. En las manos correctas, la IA es un sueño. Pero lo que he visto es que la tecnología avanza más rápido de lo que creo que podemos ayudar a la gente a entender los peligros de ella”.

Mahadevan en realidad anima a la gente a usar Sora si solo para entenderla. Luego, dice, “Piensa en cómo la tecnología podría ser utilizada por operativos políticos. Es bastante espeluznante”.

Más allá de divertirse, ciertamente hay usos legítimos de la tecnología. Podrías, por ejemplo, hacer videos explicativos para mostrar cómo se hace algo.

A través de una función llamada Cameos, puedes aparecer en tus propios videos de Sora, o en videos de personas que apruebas usando tu imagen. Ellos, a su vez, pueden darte el visto bueno para usar sus Cameos. Se te da la opción de crear tu propio cameo cuando te registras por primera vez en la aplicación y luego decides si hacerlo disponible para toda la comunidad de Sora o mantenerlo para ti mismo. También puedes establecer preferencias sobre cómo se comporta y se ve tu cameo para otras personas.

Como ejercicio, usé mi propio Cameo para producir un clip inverosímil de mí mismo alimentando a un oso con M&M, y otro en el que interpreto una canción y un baile funky que no están a la altura de Fred Astaire.

Los términos de uso de OpenAI estipulan que no puedes representar lo que produces como generado por humanos cuando no lo es. Además, al crear un video, Sora no permite subir imágenes que contengan personas fotorrealistas.

Aun así, pueden ocurrir abusos.

La decisión de OpenAI de detener los videos de King se tomó a petición de la familia del líder de derechos civiles. En una declaración conjunta con la herencia de King, la compañía afirmó: "Aunque hay fuertes intereses de libertad de expresión al representar figuras históricas, OpenAI cree que las figuras públicas y sus familias deben tener el control sobre cómo se usa su imagen. Los representantes autorizados o los propietarios de la herencia pueden solicitar que su imagen no se use en cameos de Sora".

La compañía ha implementado otras medidas de seguridad. Los videos de Sora llevan una marca de agua visible de Sora que los identifica como tales, y OpenAI afirma que puede utilizar herramientas de búsqueda inversa de imágenes y audio para rastrear los orígenes de esos videos. OpenAI también dice que tiene otras medidas en marcha para asegurar que tus imágenes y audios se usen solo con tu consentimiento, el cual puedes revocar en cualquier momento.

Pero ninguna de las medidas de seguridad es infalible. Han surgido herramientas con el propósito específico de eliminar las marcas de agua de Sora. La gente también puede recortar las marcas de agua de los videos de Sora descargados o de los compartidos en redes sociales.

Además, incluso cuando aparecen etiquetas de advertencia, pueden pasarse por alto fácilmente.

Una lista de verificación para escépticos

Aunque se está volviendo cada vez más difícil distinguir qué es real, hay algunos pasos de sentido común que puedes tomar para ayudar a verificar la autenticidad de lo que estás viendo.

¿Quién o qué está detrás de un video? Haz clic en el perfil de la persona que compartió el video para descubrir sus inclinaciones políticas o si están tratando de venderte algún producto falso. Por ejemplo, si te encuentras con un video de una celebridad promocionando un suplemento de salud, trata de determinar si esa persona realmente promovería el producto.

Si se menciona una empresa, haz tu debida diligencia investigando información disponible públicamente y realizando una búsqueda en Google a la antigua usanza.

Examina los metadatos. Claro, esto puede requerir algo de esfuerzo, pero con suerte puedes acceder a los metadatos o la información contextual subyacente capturada sobre la imagen o video. Los metadatos incluyen el autor, la fecha de creación, el tamaño del archivo y otros datos que pueden proporcionar pistas sobre los orígenes de un contenido, pero no son visibles en la superficie, generalmente requiriendo herramientas especializadas y conocimientos técnicos para acceder a ellos. Una cosa que podrías intentar: Sube un video sospechoso a una herramienta de verificación en internet conocida como la Iniciativa de Autenticidad de Contenidos, ubicada en verify.contentauthenticity.org. En el sitio, haz clic en “Select a file from your device” (Seleccionar un archivo de tu dispositivo) para representar el video en cuestión, o arrastra y suelta el archivo en el espacio proporcionado. Luego puede decirte que un video fue generado por IA.

La herramienta es parte de un estándar técnico desarrollado por la Coalition for Content Provenance and Authenticity (C2PA), y está destinada a proporcionar una "etiqueta nutricional" digital. Las empresas detrás de esto incluyen Adobe, Amazon, Google, Meta, Microsoft, OpenAI y Sony.

"Estamos en la desafortunada situación donde tienes que hacer más tarea", dice Mahadevan.

Resiste la tentación de actuar por emoción y compartir el video. Muchos videos generados por Sora u otras IA se vuelven virales, pero ejerce moderación. Si algo te hace enojar o te piden que saques tu tarjeta de crédito o una aplicación de efectivo entre pares, detente. Esas son probablemente señales de alerta de que algo anda mal.

Confía en tu instinto. Al final, si algo parece raro, probablemente lo sea. Si lo que se anuncia en un video parece demasiado bueno para ser verdad, asume que ese es el caso.

Unlock Access to AARP Members Edition

Join AARP to Continue

Already a Member?

spinner image Red AARP membership card displayed at an angle

Membresía de AARP: $15 por tu primer año cuando te inscribes en la renovación automática.

Obtén acceso instantáneo a productos y a cientos de descuentos exclusivos para socios, una segunda membresía gratis y una suscripción a la revista AARP The Magazine.

spinner image Red AARP membership card displayed at an angle

Membresía de AARP: $15 por tu primer año cuando te inscribes en la renovación automática.

Obtén acceso instantáneo a productos y a cientos de descuentos exclusivos para socios, una segunda membresía gratis y una suscripción a la revista AARP The Magazine.