Ticker

6/Internacionales/ticker-posts

Header Ads Widget

Responsive Advertisement

Bots, deepfakes y la dificultad de saber quién está realmente detrás de una pantalla

 

En plena era digital y en conmemoración del Día Mundial del Internet, la cuestión de identificar quién está del otro lado de la pantalla se vuelve cada vez más compleja. El avance de la inteligencia artificial, junto con la proliferación de bots y deepfakes, genera una realidad donde muchas interacciones o contenidos que parecen humanos en realidad no lo son.

Un ejemplo reciente es la viralización de imágenes hiperrealistas de Katy Perry en la MET Gala, generadas con inteligencia artificial (IA) y difundidas masivamente antes de confirmarse que la cantante nunca asistió. Asimismo, los bots han inundado las redes simulando conversaciones o realizando compras masivas de boletos para eventos, complicando la experiencia de usuarios legítimos.

¿Qué son los bots y los deepfakes?

Los bots son programas automatizados capaces de realizar tareas repetitivas que imitan acciones humanas, como responder mensajes, hacer comentarios o recolectar datos. Mientras algunos bots cumplen funciones útiles, como soporte técnico, otros tienen fines maliciosos, por ejemplo, difundir noticias falsas o acaparar entradas en plataformas online.

Según el reporte de Imperva de 2024, cerca del 50% del tráfico en internet proviene de bots, en su mayoría no humanos, lo que refleja el peso de esta tecnología.

Por otro lado, los deepfakes son contenidos digitales creados con IA generativa que reproducen con alta precisión rostros, voces y gestos humanos, haciendo difícil distinguirlos de grabaciones reales. Esta tecnología puede usarse para generar imágenes o videos falsos que aparentan total autenticidad.

Medidas y desafíos para combatir estas amenazas

Para limitar el uso malicioso de bots, se han implementado métodos como CAPTCHAs o verificaciones mediante documentos de identidad, pero estas soluciones a menudo complican la experiencia del usuario y pueden ser superadas por sistemas avanzados de IA.

Empresas especializadas, como World, trabajan en tecnologías para garantizar la autenticidad humana detrás de las interacciones digitales. Una de sus herramientas, “Orb”, genera un código cifrado único basado en la imagen del rostro y ojos de la persona, sin almacenar imágenes o datos biométricos sensibles.

Controversia en República Dominicana

Orb es conocido en República Dominicana, donde causó controversia meses atrás cuando operaba bajo el nombre de WorldCoin. La compañía generó rechazo por escanear el iris de usuarios a cambio de criptomonedas, lo que llevó a que ProConsumidor ordenara el cese de funciones de la empresa y la Junta Central Electoral prohibiera el uso de esos datos.

Pese a la polémica, la empresa aseguró que no guarda datos personales, lo que abre el debate sobre la privacidad y seguridad en el manejo de información biométrica.

Publicar un comentario

0 Comentarios