Las controversias sobre protección de datos y uso ético de DeepSeek
La IA china se encuentra en el ojo del huracán de la seguridad digital desde el día uno.
Deepseek, la Inteligencia Artificial (IA) china que tomó al mundo por asalto esta semana, no ha estado exenta de controversias. Aparte de ser altamente criticada por Silicon Valley, el lugar de origen de las IA y meca de la tecnología occidental, han ocurrido algunos hechos que, definitivamente, hacen necesario tener ciertas aprensiones.
Partamos por la primera y, por supuesto, la más preocupante: la seguridad de los datos de los usuarios.
China ha demostrado ser un país donde las leyes de protección de datos de los usuarios, sobre todo extranjeros, son muy laxas y, hasta cierto punto, inexistentes. Tanto el gobierno chino como terceros pueden obtener esas bases de datos y, además de espiar (algo que preocupa de sobremanera a Estados Unidos, como podemos ver con todo el drama de TikTok), pueden crear las instancias para suplantar identidades de manera digital e incluso crear estafas y fraudes.
TikTok, propiedad de ByteDance, y DeepSeek han tenido un explosivo (y exponencial) aumento en el número de usuarios alrededor del mundo, lo que sigue poniendo el foco en la seguridad y en el resguardo de estos datos de parte del gobierno chino, y qué están y/o no están haciendo estas autoridades al respecto. Ambas plataformas están en el ojo del huracán respecto a la recopilación y uso de los datos de sus usuarios, especialmente de quienes viven en Estados Unidos, y se cree que la startup de IA podría terminar en una situación similar a la de TikTok en suelo estadounidense.
Los términos y servicios de uso de DeepSeek son un gran punto a tener en cuenta: la compañía establece que toda la responsabilidad es de los usuarios, lo que claramente puede ponerlos en riesgo. También, la startup china se reserva el derecho de utilizar la información de prompts y sus respuestas para mejorar sus servicios, lo que deja varias dudas sobre la privacidad de los datos, principalmente porque no hay una opción clara para que los usuarios puedan decir que no se les dé ese uso a sus datos personales.
Y, ojo aquí: DeepSeek se queda con todos los derechos de propiedad intelectual relacionados a sus servicios (aunque, realmente, esto no es algo único de esta IA. Casi todas trabajan así).
Otro tema sensible respecto a esta IA es la censura. Se ha observado que el chatbot no es imparcial y evita responder directamente preguntas sobre temas políticos complejos que afectan a China, como, por ejemplo, al preguntar sobre la masacre de Tiananmen y/o Taiwán, responde evasivamente. El claro sesgo en las respuestas que entrega plantea serias dudas sobre la objetividad y capacidad de entregar información confiable a los usuarios.
Hay varios expertos en ciberseguridad que han levantado la voz advirtiendo que DeepSeek podría representar una gran amenaza de seguridad, ya que su habilidad para procesar un gran volumen de datos en tiempo real lograría ser explotada para identificar vulnerabilidades en otros sistemas, lo que facilitaría y aumentaría el lanzamiento de ciberataques.
De hecho, en diciembre de 2024 se descubrió una vulnerabilidad de seguridad en DeepSeek que permitía a los atacantes tomar el control de la cuenta de una víctima a través de un ataque de inyección de comandos y, si bien la vulnerabilidad ya fue corregida, el hecho de que haya existido pone sobre la mesa la necesidad de una mayor vigilancia y adopción de medidas de seguridad en el desarrollo de modelos IA (sean del país que sean), sobre todo que ahora existirán muchas creadas a partir del código abierto de Deepseek.
"Clones" de DeepSeek-R1 podrían ser utilizados para realizar ataques de suplantación de identidad y fraude, cosa que, desgraciadamente, ya sucedió con una "réplica" del chatbot DeepSeek V3 que se encargaba de distribuir malware a través de un archivo ejecutable (.exe). Esta vulnerabilidad fue reportada en X (antes conocida como Twitter) por el usuario @g0njxa.
Fake @deepseek_ai download page
— Who said what? (@g0njxa) January 28, 2025
/deepseek-6phm9gg3zoacooy.app-tools.info
Delivering signed malware "https://t.co/Q9OztUG2pI TRADING TRANSPORT COMPANY LIMITED" @SquiblydooBlog
RUN: https://t.co/Kb7EZ4YImp
Sample: https://t.co/jKTV2HvZzV
Nodejs, idk what is this but steals😅 pic.twitter.com/83XHaizdDp
Lo bueno es que el gobierno chino habría comenzado a tomar algunas cartas en el asunto y se encontraría desarrollando e implementando regulaciones y políticas para controlar el desarrollo de nuevas tecnologías y aplicación de las IA, pero, pese a ello, expertos (occidentales, debemos aclarar) dicen que estas regulaciones se centran casi exclusivamente en el control de la información y seguridad nacional de China más que en el gran panorama a nivel mundial. Claramente, la influencia del gobierno chino en el desarrollo de DeepSeek da pie a muchas preguntas y conjeturas sobre la real transparencia e independencia de la startup.
Otro punto importante es que, debido al rápido desarrollo y adopción del chatbot chino, se ha generado una gran discusión sobre el uso ético de la IA… algo que debería haber sido así desde la creación de OpenAI, en todo caso.
Esto se debe a que su código está disponible para cualquier interesado y la capacidad de analizar muchos datos y crear contenido realista con su IA generativa es muy grande, por lo que no hay muchas dudas de que DeepSeek podría ser usada para la vigilancia masiva, manipulación y/o difusión de información falsa. Por supuesto, el uso (y abuso) que se le dé a este tipo de tecnologías dependerá exclusivamente de la ética y moral de quien esté detrás.
El rápido avance de DeepSeek ha generado gran preocupación sobre la regulación y el liderazgo global en inteligencia artificial. Según el New York Times, legisladores estadounidenses ya se encontrarían debatiendo limitar el desarrollo de tecnologías de código abierto por temor a que puedan ser usadas para difundir desinformación o causar otros daños graves. Ojalá esta discusión cruce fronteras.
Hasta el momento, podemos concluir que la llegada de DeepSeek ha dejado en evidencia la urgencia y necesidad de generar una real cooperación internacional para garantizar el uso responsable de las inteligencias artificiales.