- Mamá, Papá e IA
- Posts
- Cómo protegerte de contenido generado con IA
Cómo protegerte de contenido generado con IA
Y una herramienta definitiva para que te sea mucho más fácil.
“Mamá, papá, salís raros en esta foto…”
Eso es lo que le habría dicho a mis padres si les hubiera dado por hacerse un selfie y luego retocarlo con Inteligencia Artificial.
¿Se han hecho mis padres una foto retocada con IA?
Ni de lejos.
Pero aunque no tenga pruebas para demostrarlo, tampoco tengo ninguna duda de que mi respuesta ante algo así estaría cargada de escepticismo.
Y no por las habilidades técnicas de mis padres. Son expertos en el arte del “roto y el descosío”. Más bien sería una reacción a la propia imagen.
¿Por qué sé una imagen así me generaría tanta desconfianza?
Porque es una respuesta para la que estoy biológicamente programado.
Y te lo voy a demostrar.
¿Qué sientes al ver estas imágenes?
Pues si te generan algo de incomodidad, eres de los míos.
Aunque también podrían causarte otro tipo de sensación, cada uno tiene sus fetiches…
Pero por lo general, causan cierto rechazo en nuestro cerebro. Ese rechazo se debe a una teoría tremendamente interesante llamada “uncanny valley” o “teoría del valle inquietante”.
¿Qué es la teoría del valle inquietante?
Pues más que una teoría, es la explicación de que las imágenes de antes te hayan causado pavor.
Suponiendo que te han causado pavor y no otra cosa.
Llevamos millones de años siendo humanos.
Durante todo ese tiempo, hemos interiorizado una serie de mecanismos que nos ayudan a distinguir de una manera bastante rápida y eficaz, a “los de nuestra especie.”
Por eso podríamos pensar que, cuanto más familiar nos resulta algo o alguien que percibimos, más agrado nos provoca.
Pero no siempre es así…
Esa proporción tiene un límite que se encuentra cuando nos encontramos la réplica de algo que aparenta ser humano, pero no es exactamente similar a nosotros.
En cuanto ese límite se cruza, todo ese agrado se desmorona y de repente, dejamos de tener la sensación de que “eso que estamos viendo” sea de fiar.
Y eso es el valle inquietante.
En otras palabras, estamos biológicamente programados para rechazar todo lo que sea una amenaza para nuestra especie...
Cuando nos encontramos fotos hechas con IA, ese mecanismo se activa porque entiende que, aunque representan a humanos, esas imágenes esconden "algo que está mal".
Como si percibiéramos de manera inconsciente que ese ente que estamos viendo nos quiere engañar haciéndose pasar por “uno de los nuestros”.
Todo esto para decir que esa repulsión, lejos de ser extraña, es simplemente humana.
Muchas empresas son conscientes de este fenómeno.
Sobre todo, aquellas que venden servicios de IA.
El objetivo principal de estas empresas es que compres, y para eso, necesitan que te gusten las imágenes que generan.
Por eso uno de los casos de uso donde más ha evolucionado la IA a lo largo de estos meses es precisamente en la generación de imágenes.
Porque, si has visto esa imagen, llega un momento en que ese valle se desvanece.
Si seguimos adaptando ese ente que nos hemos encontrado o esa imagen para que, poco a poco, vaya siendo más y más similar a nuestro entorno natural…
De repente, nosotros también lo empezamos a percibir como algo natural.
Y esa imagen deja de generarnos repulsión. Ya no representa una amenaza.
Cada vez estamos más cerca de llegar a ese punto.
Las herramientas de generación de contenido automatizado han avanzado a pasos agigantados.
Empezando por la propia llegada de ChatGPT y siguiendo con ElevenLabs, SORA, HeyGen…
Hoy en día, es posible crear fotos realistas, videos convincentes y textos coherentes que están a solo unos clics de distancia. Tenemos herramientas increíblemente útiles para creadores de contenido y profesionales de cualquier medio.
E irán mejorando todavía más…por lo que cada vez será más importante distinguir qué es real y qué no.
La principal amenaza de estas herramientas radica precisamente en este punto y en su sencillez.
Que algo se democratice no quiere decir que todo el mundo deba usarlo.
Que todo el mundo sea libre de expresar su opinión no quiere decir que todo el mundo tenga razón. Ahí tienes a Twitter…
Por eso necesitamos recursos para estar preparados, en caso de que estas herramientas caigan en manos que quieran manipularnos de alguna manera u otra.
Porque quien quiera hacerlo, ahora tiene a su disponsición un caldo de cultivo tremendo para generar contenido sintético a escala masiva que sea prácticamente indistinguible de la realidad. Y con ello, plantear riesgos bastante evidentes en términos de desinformación y fraude para los que nadie nos está preparando.
Difundir información falsa
Suplantar identidades
Manipular opiniones públicas
Si además aliñas ese cóctel con los algoritmos de unas redes sociales que priman la atención por encima de cualquier cosa, o el hecho de que medio mundo está de elecciones y que, por tanto, es algo más manipulable por definición…
¿Qué puede salir mal?
o mejor dicho…¿qué puede salir bien?