El futuro de la privacidad en IA y criptomonedas

robot
Generación de resúmenes en curso

En el artículo de ayer, compartí los riesgos que pueden causar las aplicaciones de IA para la privacidad personal con los que me he topado.

La razón de que exista este riesgo se debe al modo en que funcionan actualmente las aplicaciones de IA: cuando el usuario final llama a la IA, sus propios datos se suben directamente a un modelo de IA grande ubicado en la nube; luego, el modelo realiza inferencias basadas en los datos y obtiene directamente los rasgos de comportamiento del usuario.

Cuanto más duradera sea esta acumulación de datos, más capaz será el modelo de IA grande de, mediante algoritmos, comprender hábitos de comportamiento del usuario con mayor amplitud.

Para una persona, este riesgo implica una filtración de la privacidad; para una empresa, se convierte en una filtración de secretos comerciales.

En una entrevista sobre IA con Huang Renxun de algún episodio del año pasado, él ya mencionó este riesgo, y además exigió estrictamente que los empleados de su empresa, al usar herramientas de IA, mantuvieran en el dispositivo local qué datos debían permanecer localmente y qué datos podían subirse a la nube.

Sin embargo, en ese momento, lo que escuché sobre este riesgo se quedó solo en información; solo cuando experimenté personalmente este riesgo recordé su advertencia.

Este problema ahora solo acaba de surgir, pero muy pronto irá empeorando cada vez más.

Por eso creo que, en el futuro, en la era en la que la IA se popularice, necesitaremos un terminal (ya sea un teléfono, unas gafas o también otras formas que todavía no podemos imaginar) que ejecute en local un modelo grande ya simplificado, que procese en local la mayor parte de los datos sensibles y haga inferencias ante requisitos sencillos; solo después de “filtrar” ciertas tareas y datos pesados, los subirá a la nube para que el modelo grande complejo de la nube los procese. De este modo, se evita que el modelo grande de la nube capture directamente los rasgos de comportamiento personales del usuario.

Y dentro del ecosistema de cifrado, el tratamiento de la privacidad ya hace mucho tiempo que se incluyó en la agenda.

Antes, Vitalik ya mencionó que cadenas de bloques públicas como Ethereum se ven perjudicadas para su uso a gran escala en el ámbito comercial debido a la transparencia pública de datos e información: porque en el ámbito comercial, muchas veces las partes de la transacción no están dispuestas a revelar la información para proteger secretos comerciales.

Hace poco, algunos usuarios comerciales señalaron que ahora se muestran bastante cautelosos respecto al uso a gran escala de stablecoins. La razón es que, en la actualidad, las cuentas de stablecoins en cadenas públicas son públicas: esto significa que cualquiera puede ver qué cuentas tienen y cuántas stablecoins poseen. Una vez que se filtre la información de identidad de una cuenta, se vuelve información transparente qué empresa/entidad posee cuántos fondos (stablecoins).

Así que, ya sea en IA o en el ecosistema cripto, los problemas de privacidad son cuestiones que deben resolverse de inmediato.

Sin embargo, si comparamos con cuidado las aplicaciones de IA y del ecosistema cripto en lo relativo a la privacidad, al menos por ahora parece que las aplicaciones criptográficas van por delante: el ecosistema cripto ya tiene monedas de privacidad (como Monero, ZCASH, etc.) y mezcladores de monedas.

Pero estas aplicaciones de privacidad evitan activamente la supervisión regulatoria, por lo que en algún grado se les han etiquetado con aspectos negativos.

Las aplicaciones de privacidad que realmente puedan ser aceptadas por el público y los reguladores, y que ahora parecen contar con planes más maduros y una ruta más viable, posiblemente sean soluciones basadas en pruebas de conocimiento cero; por ejemplo, un método que se ha estado probando:

Hacer que una institución que haya obtenido una licencia regulatoria actúe como intermediario; ambas partes de la transacción realizan la operación a través de este intermediario, pero se ocultan la identidad y la información de la transacción, y solo la prueba de conocimiento cero generada al final se coloca en la cadena de bloques para su verificación.

De esta manera, la información de la transacción garantiza la privacidad, y las dos partes de la transacción evitan verse vinculadas a sospechas de actividades delictivas.

Esperamos que, en cuanto a la protección de la privacidad y el cumplimiento de la transacción, la exploración y aplicación dentro del ecosistema cripto pueda, aprovechando sus propias ventajas, abrir primero una nueva vía para que las aplicaciones de IA exploren un camino nuevo.

ETH2,24%
ZEC-1,73%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado