¿Qué opino sobre la prueba biométrica de la condición de persona?

Intermedio2/26/2024, 8:33:18 AM
El artículo proporciona una explicación detallada de la importancia, el funcionamiento, el funcionamiento de Orb, los problemas clave, las preocupaciones de centralización y cómo las soluciones de verificación de identidad biométrica abordan las preocupaciones de privacidad después del lanzamiento de Worldcoin por parte de Vitalik.

Un agradecimiento especial al equipo de Worldcoin, a la comunidad de Proof of Humanity y a Andrew Miller por el debate.

Uno de los dispositivos más complicados, pero potencialmente uno de los más valiosos, que la gente de la comunidad de Ethereum ha estado tratando de construir es una solución descentralizada de prueba de personalidad. La prueba de la condición de persona, también conocida como el "problema del ser humano único", es una forma limitada de identidad en el mundo real que afirma que una cuenta registrada determinada está controlada por una persona real (y una persona real diferente de todas las demás cuentas registradas), idealmente sin revelar qué persona real es.

Ha habido algunos esfuerzos para abordar este problema: Proof of Humanity, BrightID, Idena y Circles son algunos ejemplos. Algunos de ellos vienen con sus propias aplicaciones (a menudo un token UBI), y algunos han encontrado uso en Gitcoin Passport para verificar qué cuentas son válidas para la votación cuadrática. La tecnología de conocimiento cero como Sismo añade privacidad a muchas de estas soluciones. Más recientemente, hemos visto el surgimiento de un proyecto de prueba de personalidad mucho más grande y ambicioso: Worldcoin.

Worldcoin fue cofundada por Sam Altman, mejor conocido por ser el CEO de OpenAI. La filosofía detrás del proyecto es simple: la IA va a crear mucha abundancia y riqueza para la humanidad, pero también puede matar los trabajos de muchas personas y hacer que sea casi imposible saber quién es un humano y no un bot, por lo que necesitamos tapar ese agujero (i) creando un sistema de prueba de personalidad realmente bueno para que los humanos puedan demostrar que realmente son humanos. y (ii) otorgar a todos una RBU. Worldcoin es único en el sentido de que se basa en una biometría altamente sofisticada, escaneando el iris de cada usuario) utilizando una pieza de hardware especializada llamada "el Orbe":

El objetivo es producir una gran cantidad de estos orbes y distribuirlos ampliamente en todo el mundo y ponerlos en lugares públicos para que sea fácil para cualquier persona obtener una identificación. A favor de Worldcoin, también se han comprometido a descentralizarse con el tiempo. Al principio, esto significa descentralización técnica: ser un L2 en Ethereum usando la pila Optimism y proteger la privacidad de los usuarios con ZK-SNARK y otras técnicas criptográficas. Más adelante, incluye la descentralización de la gobernanza del propio sistema.

Worldcoin ha sido criticado por preocupaciones de privacidad y seguridad en torno al Orbe, problemas de diseño en su "moneda" y por problemas éticos en torno a algunas decisiones que ha tomado la compañía. Algunas de las críticas son muy específicas, centrándose en las decisiones tomadas por el proyecto que fácilmente podrían haberse tomado de otra manera y, de hecho, que el propio proyecto Worldcoin puede estar dispuesto a cambiar. Otros, sin embargo, plantean la preocupación más fundamental de si la biometría, no solo la biometría de escaneo ocular de Worldcoin, sino también los juegos más simples de carga de videos y verificación de rostros utilizados en Proof of Humanity e Idena, son una buena idea. Y otros critican la prueba de la personalidad en general. Los riesgos incluyen filtraciones inevitables de privacidad, una mayor erosión de la capacidad de las personas para navegar por Internet de forma anónima, la coerción por parte de gobiernos autoritarios y la posible imposibilidad de estar seguros al mismo tiempo que están descentralizados.

Esta publicación hablará sobre estos temas y repasará algunos argumentos que pueden ayudarlo a decidir si inclinarse y escanear sus ojos (o cara, o voz, o...) ante nuestros nuevos señores esféricos es una buena idea, y si las alternativas naturales, ya sea usar la prueba de personalidad basada en gráficos sociales o renunciar por completo a la prueba de persona, son mejores.

¿Qué es la prueba de personalidad y por qué es importante?

La forma más sencilla de definir un sistema de prueba de personalidad es: crea una lista de claves públicas donde el sistema garantiza que cada clave está controlada por un humano único. En otras palabras, si eres un humano, puedes poner una clave en la lista, pero no puedes poner dos claves en la lista, y si eres un bot no puedes poner ninguna clave en la lista.

La prueba de personalidad es valiosa porque resuelve muchos problemas anti-spam y anti-concentración de poder que muchas personas tienen, de una manera que evita la dependencia de las autoridades centralizadas y revela la mínima información posible. Si no se resuelven las pruebas de la personalidad, la gobernanza descentralizada (incluida la "microgobernanza", como los votos en las publicaciones en las redes sociales) se vuelve mucho más fácil de capturar por parte de actores muy ricos, incluidos los gobiernos hostiles. Muchos servicios solo podrían prevenir los ataques de denegación de servicio estableciendo un precio de acceso y, a veces, un precio lo suficientemente alto como para mantener alejados a los atacantes también es demasiado alto para muchos usuarios legítimos de bajos ingresos.

Muchas de las principales aplicaciones en el mundo de hoy en día se ocupan de este problema mediante el uso de sistemas de identidad respaldados por el gobierno, como tarjetas de crédito y pasaportes. Esto resuelve el problema, pero hace grandes y quizás inaceptables sacrificios en materia de privacidad, y puede ser atacado trivialmente por los propios gobiernos.

¿Cuántos defensores de la prueba de personalidad ven el riesgo de dos caras al que nos enfrentamos? Fuente de la imagen.

En muchos proyectos de prueba de personalidad, no solo Worldcoin, sino también Proof of Humanity, Circles y otros, la "aplicación insignia" es un "token N por persona" incorporado (a veces llamado "token UBI"). Cada usuario registrado en el sistema recibe una cantidad fija de tokens cada día (u hora, o semana). Pero hay muchas otras aplicaciones:

En muchos de estos casos, el denominador común es el deseo de crear mecanismos abiertos y democráticos, evitando tanto el control centralizado por parte de los operadores de un proyecto como la dominación por parte de sus usuarios más ricos. Esto último es especialmente importante en la gobernanza descentralizada. En muchos de estos casos, las soluciones existentes hoy en día se basan en una combinación de (i) algoritmos de IA altamente opacos que dejan mucho espacio para discriminar indetectablemente a los usuarios que simplemente no les gustan a los operadores, y (ii) identificaciones centralizadas, también conocidas como "KYC". Una solución eficaz de prueba de personalidad sería una alternativa mucho mejor, ya que lograría las propiedades de seguridad que necesitan esas aplicaciones sin las trampas de los enfoques centralizados existentes.

¿Cuáles son algunos de los primeros intentos de probar la condición de persona?

Hay dos formas principales de prueba de la condición de persona: la basada en gráficos sociales y la biométrica. La prueba de personalidad basada en gráficos sociales se basa en alguna forma de avale: si Alice, Bob, Charlie y David son humanos verificados, y todos dicen que Emily es una humana verificada, entonces Emily probablemente también sea una humana verificada. El aval a menudo se mejora con incentivos: si Alice dice que Emily es humana, pero resulta que no lo es, entonces Alice y Emily pueden ser penalizadas. La prueba biométrica de personalidad implica verificar algún rasgo físico o de comportamiento de Emily, que distingue a los humanos de los bots (y a los humanos individuales entre sí). La mayoría de los proyectos utilizan una combinación de las dos técnicas.

Los cuatro sistemas que mencioné al principio de la publicación funcionan aproximadamente de la siguiente manera:

  • Prueba de humanidad: subes un video de ti mismo y proporcionas un depósito. Para ser aprobado, un usuario existente debe responder por usted, y debe pasar una cantidad de tiempo durante el cual puede ser desafiado. Si hay una impugnación, un tribunal descentralizado de Kleros determina si su video era genuino o no; Si no es así, pierdes tu depósito y el retador obtiene una recompensa.
  • BrightID: te unes a una videollamada "fiesta de verificación" con otros usuarios, donde todos se verifican entre sí. Los niveles más altos de verificación están disponibles a través de Bitu, un sistema en el que puede obtener la verificación si suficientes otros usuarios verificados por Bitu responden por usted.
  • Idena: juegas un juego de captcha en un momento específico (para evitar que las personas participen varias veces); Parte del juego CAPTCHA consiste en crear y verificar captchas que luego se utilizarán para verificar otros.
  • Circles: un usuario existente de Circles responde por ti. Circles es único en el sentido de que no intenta crear una "identificación verificable globalmente"; Más bien, crea un gráfico de relaciones de confianza, donde la confiabilidad de alguien solo se puede verificar desde la perspectiva de su propia posición en ese gráfico.

¿Cómo funciona Worldcoin?

Cada usuario de Worldcoin instala una aplicación en su teléfono, que genera una clave privada y pública, muy parecida a una billetera Ethereum. Luego van en persona a visitar un "Orbe". El usuario mira fijamente a la cámara del Orbe y, al mismo tiempo, le muestra un código QR generado por su aplicación Worldcoin, que contiene su clave pública. El Orb escanea los ojos del usuario y utiliza un complicado escaneo de hardware y clasificadores de aprendizaje automático para verificar que:

  1. El usuario es un ser humano real
  2. El iris del usuario no coincide con el iris de ningún otro usuario que haya utilizado previamente el sistema

Si se superan ambos escaneos, el orbe firma un mensaje que aprueba un hash especializado del escaneo del iris del usuario. El hash se carga en una base de datos, actualmente un servidor centralizado, destinado a ser reemplazado por un sistema descentralizado en cadena una vez que estén seguros de que el mecanismo de hash funciona. El sistema no almacena escaneos completos del iris; Solo almacena hashes, y estos hashes se utilizan para comprobar la unicidad. A partir de ese momento, el usuario tiene un "ID mundial".

Un titular de World ID puede demostrar que es un ser humano único generando un ZK-SNARK que demuestre que posee la clave privada correspondiente a una clave pública en la base de datos, sin revelar qué clave posee. Por lo tanto, incluso si alguien vuelve a escanear su iris, no podrá ver ninguna acción que haya realizado.

¿Cuáles son los principales problemas con la construcción de Worldcoin?

Hay cuatro riesgos principales que vienen inmediatamente a la mente:

  • Privacidad. El registro de las exploraciones del iris puede revelar información. Como mínimo, si alguien más escanea tu iris, puede cotejarlo con la base de datos para determinar si tienes o no un World ID. Potencialmente, las exploraciones del iris podrían revelar más información.
  • Accesibilidad. Los ID de mundo no serán accesibles de manera confiable a menos que haya tantos orbes que cualquier persona en el mundo pueda acceder fácilmente a uno.
  • Centralización. El Orb es un dispositivo de hardware, y no tenemos forma de verificar que se construyó correctamente y no tiene puertas traseras. Por lo tanto, incluso si la capa de software es perfecta y está totalmente descentralizada, la Fundación Worldcoin todavía tiene la capacidad de insertar una puerta trasera en el sistema, lo que le permite crear arbitrariamente muchas identidades humanas falsas.
  • Seguridad. Los teléfonos de los usuarios podrían ser hackeados, los usuarios podrían ser coaccionados para escanear sus iris mientras muestran una clave pública que pertenece a otra persona, y existe la posibilidad de imprimir en 3D "personas falsas" que pueden pasar el escaneo del iris y obtener identificaciones mundiales.

Es importante distinguir entre (i) cuestiones específicas de las elecciones realizadas por Worldcoin, (ii) cuestiones que inevitablemente tendrá cualquier prueba biométrica de personalidad, y (iii) cuestiones que tendrá cualquier prueba de personalidad en general. Por ejemplo, inscribirse en Proof of Humanity significa publicar tu rostro en Internet. Unirse a un grupo de verificación de BrightID no hace exactamente eso, pero aún así expone quién es usted a mucha gente. Y unirte a los círculos expone públicamente tu gráfico social. Worldcoin es significativamente mejor para preservar la privacidad que cualquiera de ellos. Por otro lado, Worldcoin depende de hardware especializado, lo que abre el desafío de confiar en que los fabricantes de orbes hayan construido los orbes correctamente, un desafío que no tiene paralelos en Proof of Humanity, BrightID o Circles. Incluso es concebible que en el futuro, alguien que no sea Worldcoin cree una solución de hardware especializado diferente que tenga diferentes compensaciones.

¿Cómo abordan los esquemas de prueba de personalidad biométrica los problemas de privacidad?

La fuga de privacidad potencial más obvia y más grande que tiene cualquier sistema de prueba de personalidad es vincular cada acción que realiza una persona con una identidad del mundo real. Esta fuga de datos es muy grande, podría decirse que inaceptablemente grande, pero afortunadamente es fácil de resolver con tecnología a prueba de conocimiento cero . En lugar de hacer directamente una firma con una clave privada cuya clave pública correspondiente está en la base de datos, un usuario podría hacer un ZK-SNARK que demuestre que posee la clave privada cuya clave pública correspondiente está en algún lugar de la base de datos, sin revelar qué clave específica tiene. Esto se puede hacer de forma genérica con herramientas como Sismo (ver aquí la implementación específica de Proof of Humanity), y Worldcoin tiene su propia implementación incorporada. Es importante dar crédito a la prueba de personalidad "criptonativa" aquí: en realidad se preocupan por dar este paso básico para proporcionar anonimización, mientras que básicamente todas las soluciones de identidad centralizadas no lo hacen.

Una filtración de privacidad más sutil, pero aún importante, es la mera existencia de un registro público de escaneos biométricos. En el caso de Proof of Humanity, se trata de una gran cantidad de datos: obtienes un video de cada participante de Proof of Humanity, lo que deja muy claro a cualquier persona en el mundo que se preocupe por investigar quiénes son todos los participantes de Proof of Humanity. En el caso de Worldcoin, la filtración es mucho más limitada: el Orb calcula y publica localmente solo un "hash" del escaneo del iris de cada persona. Este hash no es un hash normal como SHA256; más bien, es un algoritmo especializado basado en filtros Gabor aprendidos por máquina que se ocupa de la inexactitud inherente a cualquier escaneo biométrico y garantiza que los hashes sucesivos tomados del iris de la misma persona tengan resultados similares.

Azul: porcentaje de bits que difieren entre dos escaneos del iris de la misma persona. Naranja: porcentaje de bits que difieren entre dos escaneos del iris de dos personas diferentes.

Estos hashes de iris filtran solo una pequeña cantidad de datos. Si un adversario puede escanear a la fuerza (o en secreto) su iris, entonces puede calcular el hash de su iris por sí mismo y compararlo con la base de datos de hashes del iris para ver si participó o no en el sistema. Esta capacidad de verificar si alguien se registró o no es necesaria para que el sistema en sí evite que las personas se registren varias veces, pero siempre existe la posibilidad de que de alguna manera se abuse de ella. Además, existe la posibilidad de que los hashes del iris filtren cierta cantidad de datos médicos (sexo, etnia, tal vez condiciones médicas), pero esta fuga es mucho menor que la que podría capturar casi cualquier otro sistema de recopilación masiva de datos en uso hoy en día (p. ej. incluso cámaras callejeras). En general, me parece suficiente la privacidad de almacenar hashes de iris.

Si otros no están de acuerdo con este juicio y deciden que quieren diseñar un sistema con aún más privacidad, hay dos formas de hacerlo:

  1. Si el algoritmo de hash del iris se puede mejorar para que la diferencia entre dos escaneos de la misma persona sea mucho menor (p. ej. fiablemente por debajo del 10% de cambios de bits), entonces en lugar de almacenar hashes de iris completos, el sistema puede almacenar un número menor de bits de corrección de errores para los hashes de iris (ver: extractores difusos). Si la diferencia entre dos escaneos es inferior al 10%, entonces el número de bits que deben publicarse sería al menos 5 veces menor.
  2. Si queremos ir más allá, podríamos almacenar la base de datos de hash de iris dentro de un sistema de computación multipartita (MPC) al que solo podrían acceder los orbes (con un límite de velocidad), lo que haría que los datos fueran inaccesibles por completo, pero a costa de una complejidad significativa del protocolo y la complejidad social en el gobierno del conjunto de participantes de MPC. Esto tendría la ventaja de que los usuarios no podrían demostrar un vínculo entre dos ID de mundo diferentes que tuvieran en diferentes momentos, incluso si quisieran.

Desafortunadamente, estas técnicas no son aplicables a Proof of Humanity, porque Proof of Humanity requiere que el video completo de cada participante esté disponible públicamente para que pueda ser impugnado si hay indicios de que es falso (incluidas las falsificaciones generadas por IA) y, en tales casos, se investigue con más detalle.

En general, a pesar de la "vibra distópica" de mirar fijamente a un orbe y dejar que escanee profundamente en tus globos oculares, parece que los sistemas de hardware especializados pueden hacer un trabajo bastante decente para proteger la privacidad. Sin embargo, la otra cara de la moneda es que los sistemas de hardware especializados introducen problemas de centralización mucho mayores. Por lo tanto, los cypherpunks parecemos estar atrapados en un aprieto: tenemos que cambiar un valor cypherpunk profundamente arraigado por otro.

¿Cuáles son los problemas de accesibilidad en los sistemas biométricos de prueba de personalidad?

El hardware especializado introduce problemas de accesibilidad porque, bueno, el hardware especializado no es muy accesible. Entre el 51% y el 64% de los africanos subsaharianos ahora tienen teléfonos inteligentes, y se prevé que esto aumente al 87% para 2030. Pero si bien hay miles de millones de teléfonos inteligentes, solo hay unos pocos cientos de orbes. Incluso con una fabricación distribuida a gran escala, sería difícil llegar a un mundo en el que haya un orbe a menos de cinco kilómetros de todo el mundo.

Pero hay que reconocer que el equipo lo ha estado intentando.

También vale la pena señalar que muchas otras formas de prueba de personalidad tienen problemas de accesibilidad que son aún peores. Es muy difícil unirse a un sistema de prueba de personalidad basado en gráficos sociales a menos que ya conozcas a alguien que esté en el gráfico social. Esto hace que sea muy fácil que estos sistemas permanezcan restringidos a una sola comunidad en un solo país.

Incluso los sistemas de identidad centralizados han aprendido esta lección: el sistema de identificación Aadhaar de la India se basa en la biometría, ya que esa era la única forma de incorporar rápidamente a su población masiva y evitar el fraude masivo de cuentas duplicadas y falsas (lo que resulta en un enorme ahorro de costos), aunque, por supuesto, el sistema Aadhaar en su conjunto es mucho más débil en cuanto a privacidad que cualquier cosa que se proponga a gran escala dentro de la comunidad criptográfica.

Los sistemas con mejor rendimiento desde el punto de vista de la accesibilidad son en realidad sistemas como Proof of Humanity, en los que puedes registrarte utilizando sólo un smartphone, aunque, como hemos visto y como veremos, estos sistemas vienen con todo tipo de otras compensaciones.

¿Cuáles son los problemas de centralización en los sistemas biométricos de prueba de personalidad?

Hay tres:

  1. Riesgos de centralización en la gobernanza de alto nivel del sistema (esp. el sistema que toma las resoluciones finales de alto nivel si los diferentes actores del sistema no están de acuerdo en los juicios subjetivos).
  2. Riesgos de centralización exclusivos de los sistemas que utilizan hardware especializado.
  3. Riesgos de centralización si se utilizan algoritmos patentados para determinar quién es un participante auténtico.

Cualquier sistema de prueba de personalidad debe lidiar con (1), tal vez con la excepción de los sistemas en los que el conjunto de identificaciones "aceptadas" es completamente subjetivo. Si un sistema utiliza incentivos denominados en activos externos (p. ej. ETH, USDC, DAI), entonces no puede ser totalmente subjetivo, por lo que los riesgos de gobernanza se vuelven inevitables.

[2] es un riesgo mucho mayor para Worldcoin que para Proof of Humanity (o BrightID), porque Worldcoin depende de hardware especializado y otros sistemas no.

[3] es un riesgo, particularmente en los sistemas "<a href="https://medium.com/@VitalikButerin/the-meaning-of-de-descentralization-a0c92b76a274">lógicamente centralizados" donde hay un solo sistema que realiza la verificación, a menos que todos los algoritmos sean de código abierto y tengamos la seguridad de que realmente están ejecutando el código que dicen que están. Para los sistemas que dependen exclusivamente de que los usuarios verifiquen a otros usuarios (como Proof of Humanity), no es un riesgo.

¿Cómo aborda Worldcoin los problemas de centralización de hardware?

Actualmente, una entidad afiliada a Worldcoin llamada Tools for Humanity es la única organización que está fabricando orbes. Sin embargo, el código fuente de Orb es mayoritariamente público: puedes ver las especificaciones de hardware en este repositorio de github, y se espera que otras partes del código fuente se publiquen pronto. La licencia es otra de esas licencias de "código compartido, pero no técnicamente de código abierto hasta dentro de cuatro años", similar a la BSL de Uniswap , excepto que además de evitar la bifurcación, también evita lo que consideran un comportamiento poco ético: enumeran específicamente la vigilancia masiva y tres declaraciones internacionales de derechos civiles .

El objetivo declarado del equipo es permitir y alentar a otras organizaciones a crear orbes y, con el tiempo, pasar de los orbes creados por Tools for Humanity a tener algún tipo de DAO que apruebe y administre qué organizaciones pueden hacer orbes que sean reconocidos por el sistema.

Hay dos formas en las que este diseño puede fallar:

  1. No logra descentralizarse realmente. Esto podría suceder debido a la trampa común de los protocolos federados: un fabricante termina dominando en la práctica, lo que hace que el sistema se vuelva a centralizar. Presumiblemente, la gobernanza podría limitar la cantidad de orbes válidos que cada fabricante puede producir, pero esto tendría que gestionarse con cuidado, y ejerce mucha presión sobre la gobernanza para que esté descentralizada y supervise el ecosistema y responda a las amenazas de forma eficaz: una tarea mucho más difícil que, por ejemplo. una DAO bastante estática que solo maneja tareas de resolución de disputas de alto nivel.
  2. Resulta que no es posible hacer que un mecanismo de fabricación distribuida de este tipo sea seguro. Aquí, hay dos riesgos que veo:
    • Fragilidad frente a los malos fabricantes de orbes: si incluso un fabricante de orbes es malicioso o hackeado, puede generar un número ilimitado de hashes de escaneo de iris falsos y darles identificadores mundiales.
    • Restricción gubernamental de orbes: los gobiernos que no quieran que sus ciudadanos participen en el ecosistema de Worldcoin pueden prohibir los orbes en su país. Además, incluso podrían obligar a sus ciudadanos a escanear sus iris, lo que permitiría al gobierno obtener sus cuentas, y los ciudadanos no tendrían forma de responder.

Para hacer que el sistema sea más robusto contra los malos fabricantes de orbes, el equipo de Worldcoin propone realizar auditorías periódicas en los orbes, verificando que estén construidos correctamente y que los componentes clave del hardware se construyeron de acuerdo con las especificaciones y no fueron manipulados después del hecho. Esta es una tarea desafiante: es básicamente algo así como la burocracia de inspecciones nucleares del OIEA , pero para Orbs. La esperanza es que incluso una implementación muy imperfecta de un régimen de auditoría pueda reducir en gran medida el número de orbes falsos.

Para limitar el daño causado por cualquier orbe malo que se cuele, tiene sentido tener una segunda mitigación. Los World ID registrados con diferentes fabricantes de orbes, e idealmente con diferentes orbes, deben distinguirse entre sí. No pasa nada si esta información es privada y solo se almacena en el dispositivo del titular del World ID; Pero sí tiene que ser demostrable bajo demanda. Esto hace posible que el ecosistema responda a los ataques (inevitables) eliminando a los fabricantes de orbes individuales, y tal vez incluso a los orbes individuales, de la lista blanca bajo demanda. Si vemos que el gobierno de Corea del Norte va por ahí y obliga a la gente a escanear sus globos oculares, esos orbes y cualquier cuenta producida por ellos podrían ser desactivados retroactivamente de inmediato.

Cuestiones de seguridad en la prueba de personalidad en general

Además de los problemas específicos de Worldcoin, existen preocupaciones que afectan a los diseños de prueba de personalidad en general. Los principales que se me ocurren son:

  1. Personas falsas impresas en 3D: se podría utilizar la IA para generar fotografías o incluso impresiones en 3D de personas falsas que sean lo suficientemente convincentes como para ser aceptadas por el software Orb. Si un solo grupo hace esto, puede generar un número ilimitado de identidades.
  2. Posibilidad de vender identificaciones: alguien puede proporcionar la clave pública de otra persona en lugar de la suya propia al registrarse, dando a esa persona el control de su identificación registrada, a cambio de dinero. Esto parece estar ocurriendo ya. Además de vender, también existe la posibilidad de alquilar identificaciones para usarlas por un corto tiempo en una sola aplicación.
  3. Hackeo telefónico: si el teléfono de una persona es hackeado, el hacker puede robar la clave que controla su World ID.
  4. Coerción gubernamental para robar identificaciones: un gobierno podría obligar a sus ciudadanos a ser verificados mientras muestran un código QR perteneciente al gobierno. De esta manera, un gobierno malintencionado podría obtener acceso a millones de identificaciones. En un sistema biométrico, esto podría incluso hacerse de forma encubierta: los gobiernos podrían usar orbes ofuscados para extraer identificaciones mundiales de todos los que ingresan a su país en la cabina de control de pasaportes.

[1] es específico de los sistemas biométricos de prueba de personalidad. [2] y [3] son comunes tanto a los diseños biométricos como a los no biométricos. [4] también es común a ambos, aunque las técnicas que se requieren serían muy diferentes en ambos casos; en esta sección me centraré en las cuestiones del caso biométrico.

Estas son debilidades bastante serias. Algunas ya se han abordado en los protocolos existentes, otras pueden abordarse con futuras mejoras, y otras parecen ser limitaciones fundamentales.

¿Cómo podemos lidiar con personas falsas?

Esto es un riesgo significativamente menor para Worldcoin que para los sistemas similares a Proof of Humanity: un escaneo en persona puede examinar muchas características de una persona, y es bastante difícil de falsificar, en comparación con el mero hecho de falsificar un video. El hardware especializado es inherentemente más difícil de engañar que el hardware básico, que a su vez es más difícil de engañar que los algoritmos digitales que verifican las imágenes y los videos que se envían de forma remota.

¿Podría alguien imprimir en 3D algo que pueda engañar incluso al hardware especializado eventualmente? Probablemente. Espero que en algún momento veamos crecientes tensiones entre el objetivo de mantener el mecanismo abierto y mantenerlo seguro: los algoritmos de IA de código abierto son inherentemente más vulnerables al aprendizaje automático adversario. Los algoritmos de caja negra están más protegidos, pero es difícil saber que un algoritmo de caja negra no fue entrenado para incluir puertas traseras. Tal vez las tecnologías ZK-ML podrían darnos lo mejor de ambos mundos. Aunque en algún momento en un futuro aún más lejano, es probable que incluso los mejores algoritmos de IA sean engañados por las mejores personas falsas impresas en 3D.

Sin embargo, a partir de mis discusiones con los equipos de Worldcoin y Proof of Humanity, parece que en este momento ninguno de los dos protocolos está experimentando ataques significativos de deep fake, por la sencilla razón de que contratar a trabajadores reales de bajos salarios para que se registren en su nombre es bastante barato y fácil.

¿Podemos evitar la venta de identificaciones?

A corto plazo, evitar este tipo de subcontratación es difícil, porque la mayoría de las personas en el mundo ni siquiera conocen los protocolos de prueba de personalidad, y si les dices que sostengan un código QR y escaneen sus ojos por $ 30, lo harán. Una vez que más personas sepan qué son los protocolos de prueba de persona, se hace posible una mitigación bastante simple: permitir que las personas que tienen una identificación registrada vuelvan a registrarse, cancelando la identificación anterior. Esto hace que la "venta de identificación" sea mucho menos creíble, porque alguien que le vende su identificación puede ir y volver a registrarse, cancelando la identificación que acaba de vender. Sin embargo, llegar a este punto requiere que el protocolo sea muy conocido y que los orbes sean muy accesibles para que el registro bajo demanda sea práctico.

Esta es una de las razones por las que tener una moneda UBI integrada en un sistema de prueba de personalidad es valioso: una moneda UBI proporciona un incentivo fácilmente comprensible para que las personas (i) aprendan sobre el protocolo y se registren, y (ii) se vuelvan a registrar inmediatamente si se registran en nombre de otra persona. El nuevo registro también evita la piratería telefónica.

¿Podemos evitar la coerción en los sistemas biométricos de prueba de personalidad?

Esto depende del tipo de coerción de la que estemos hablando. Las posibles formas de coerción incluyen:

  • Los gobiernos escanean los ojos (o las caras, o...) de las personas en los controles fronterizos y otros puntos de control gubernamentales de rutina, y usan esto para registrar (y con frecuencia volver a registrar) a sus ciudadanos
  • Los gobiernos prohíben los orbes en el país para evitar que las personas se vuelvan a registrar de forma independiente
  • Personas que compran identificaciones y luego amenazan con dañar al vendedor si detectan que la identificación ha sido invalidada debido a la repetición del registro.
  • Aplicaciones (posiblemente administradas por el gobierno) que requieren que las personas "inicien sesión" iniciando sesión con su clave pública directamente, lo que les permite ver el escaneo biométrico correspondiente y, por lo tanto, el vínculo entre la identificación actual del usuario y cualquier identificación futura que obtengan al volver a registrarse. Un temor común es que esto hace que sea demasiado fácil crear "registros permanentes" que se queden con una persona durante toda su vida.

Toda su RBU y su poder de voto nos pertenecen. Fuente de la imagen.

Especialmente en manos de usuarios poco sofisticados, parece bastante difícil prevenir estas situaciones. Los usuarios podrían salir de su país para (re)registrarse en un Orb en un país más seguro, pero este es un proceso difícil y de alto costo. En un entorno legal verdaderamente hostil, buscar un Orbe independiente parece demasiado difícil y arriesgado.

Lo que sí es factible es hacer que este tipo de abuso sea más molesto de implementar y detectable. El enfoque de Proof of Humanity de exigir a una persona que diga una frase específica al registrarse es un buen ejemplo: puede ser suficiente para evitar el escaneo oculto, lo que requiere que la coerción sea mucho más descarada, y la frase de registro podría incluso incluir una declaración que confirme que el encuestado sabe que tiene derecho a volver a registrarse de forma independiente y puede obtener monedas UBI u otras recompensas. Si se detecta coerción, los dispositivos utilizados para realizar registros coercitivos en masa podrían ver revocados sus derechos de acceso. Para evitar que las aplicaciones vinculen las identificaciones actuales y anteriores de las personas e intenten dejar "registros permanentes", la aplicación predeterminada de prueba de personalidad podría bloquear la clave del usuario en hardware de confianza, evitando que cualquier aplicación use la clave directamente sin la capa de anonimato ZK-SNARK en el medio. Si un gobierno o un desarrollador de aplicaciones quiere evitar esto, tendría que exigir el uso de su propia aplicación personalizada.

Con una combinación de estas técnicas y una vigilancia activa, parece posible excluir a los regímenes que son verdaderamente hostiles y mantener honestos a los regímenes que son meramente medianamente malos (como lo es gran parte del mundo). Esto se puede hacer ya sea mediante un proyecto como Worldcoin o Proof of Humanity manteniendo su propia burocracia para esta tarea, o revelando más información sobre cómo se registró una identificación (por ejemplo, en Worldcoin, de qué Orbe proviene), y dejando esta tarea de clasificación a la comunidad.

¿Podemos evitar el alquiler de identificaciones (por ejemplo, para vender votos)?

El alquiler de su documento de identidad no se ve impedido por el nuevo registro. Esto está bien en algunas aplicaciones: el costo de alquilar su derecho a cobrar la parte del día de la moneda UBI será solo el valor de la parte del día de la moneda UBI. Pero en aplicaciones como la votación, la venta fácil de votos es un gran problema.

Sistemas como el MACI pueden evitar que vendas tu voto de manera creíble, al permitirte emitir más tarde otro voto que invalide tu voto anterior, de tal manera que nadie pueda saber si realmente emitiste o no ese voto. Sin embargo, si el sobornador controla qué clave obtiene en el momento del registro, esto no ayuda.

Veo dos soluciones aquí:

  1. Ejecute aplicaciones completas dentro de un MPC. Esto también cubriría el proceso de reinscripción: cuando una persona se registra en el MPC, el MPC le asigna una identificación que es separada y no se puede vincular a su identificación de prueba de persona, y cuando una persona se vuelve a registrar, solo el MPC sabría qué cuenta desactivar. Esto evita que los usuarios hagan pruebas sobre sus acciones, porque cada paso importante se realiza dentro de un MPC utilizando información privada que solo es conocida por el MPC.
  2. Ceremonias de registro descentralizadas. Básicamente, implemente algo como este protocolo de registro de claves en persona que requiere que cuatro participantes locales seleccionados al azar trabajen juntos para registrar a alguien. Esto podría garantizar que el registro sea un procedimiento "confiable" durante el cual un atacante no pueda husmear.

Los sistemas basados en gráficos sociales pueden funcionar mejor aquí, porque pueden crear procesos de registro locales descentralizados automáticamente como un subproducto de cómo funcionan.

¿Cómo se compara la biometría con el otro candidato principal para la prueba de personalidad, la verificación basada en gráficos sociales?

Aparte de los enfoques biométricos, el principal otro contendiente para la prueba de la personalidad hasta ahora ha sido la verificación basada en gráficos sociales. Todos los sistemas de verificación basados en gráficos sociales funcionan con el mismo principio: si hay un montón de identidades verificadas existentes que dan fe de la validez de su identidad, entonces probablemente sea válido y también debería obtener el estado verificado.

Si solo unos pocos usuarios reales (accidental o maliciosamente) verifican a los usuarios falsos, entonces puede usar técnicas básicas de teoría de grafos para poner un límite superior a la cantidad de usuarios falsos que son verificados por el sistema. Fuente: https://www.sciencedirect.com/science/article/abs/pii/S0045790622000611.

Los defensores de la verificación basada en gráficos sociales a menudo la describen como una mejor alternativa a la biometría por varias razones:

  • No depende de hardware de propósito especial, lo que hace que sea mucho más fácil de implementar
  • Evita una carrera armamentista permanente entre los fabricantes que intentan crear personas falsas y el Orb que necesita actualizarse para rechazar a esas personas falsas
  • No requiere la recopilación de datos biométricos, lo que lo hace más respetuoso con la privacidad
  • Es potencialmente más amigable con el seudónimo, porque si alguien elige dividir su vida en Internet en varias identidades que mantiene separadas entre sí, ambas identidades podrían verificarse (pero mantener múltiples identidades genuinas y separadas sacrifica los efectos de red y tiene un alto costo, por lo que no es algo que los atacantes puedan hacer fácilmente)
  • Los enfoques biométricos dan una puntuación binaria de "es un ser humano" o "no es un ser humano", lo cual es frágil: las personas que son rechazadas accidentalmente terminarían sin ninguna RBU en absoluto, y potencialmente sin la capacidad de participar en la vida en línea. Los enfoques basados en gráficos sociales pueden dar una puntuación numérica más matizada, lo que, por supuesto, puede ser moderadamente injusto para algunos participantes, pero es poco probable que "des-persona" a alguien por completo.

Mi perspectiva sobre estos argumentos es que estoy en gran medida de acuerdo con ellos. Estas son ventajas genuinas de los enfoques basados en gráficos sociales y deben tomarse en serio. Sin embargo, también vale la pena tener en cuenta las debilidades de los enfoques basados en gráficos sociales:

  • Bootstrapping: para que un usuario se una a un sistema basado en grafos sociales, ese usuario debe conocer a alguien que ya esté en el grafo. Esto dificulta la adopción a gran escala y corre el riesgo de excluir regiones enteras del mundo que no tienen suerte en el proceso inicial de arranque.
  • Privacidad: si bien los enfoques basados en gráficos sociales evitan recopilar datos biométricos, a menudo terminan filtrando información sobre las relaciones sociales de una persona, lo que puede conducir a riesgos aún mayores. Por supuesto, la tecnología de conocimiento cero puede mitigar esto (p. ej. ver esta propuesta de Barry Whitehat), pero la interdependencia inherente a un grafo y la necesidad de realizar análisis matemáticos en el grafo hace que sea más difícil lograr el mismo nivel de ocultación de datos que se puede lograr con la biometría.
  • Desigualdad: cada persona solo puede tener una identificación biométrica, pero una persona rica y socialmente bien conectada podría usar sus conexiones para generar muchas identificaciones. Esencialmente, la misma flexibilidad que podría permitir que un sistema basado en grafos sociales otorgue múltiples seudónimos a alguien (p. ej. un activista) que realmente necesita esa característica probablemente también implicaría que las personas más poderosas y bien conectadas pueden obtener más seudónimos que las personas menos poderosas y bien conectadas.
  • Riesgo de colapso en la centralización: la mayoría de las personas son demasiado perezosas para dedicar tiempo a informar en una aplicación de Internet quién es una persona real y quién no. Como resultado, existe el riesgo de que el sistema llegue con el tiempo a favorecer formas "fáciles" de ser incluido que dependen de las autoridades centralizadas, y el "gráfico social" de que los usuarios del sistema se conviertan de facto en el gráfico social de qué países reconocen a qué personas como ciudadanos, dándonos KYC centralizado con pasos adicionales innecesarios.

¿Es compatible la prueba de personalidad con el seudónimo en el mundo real?

En principio, la prueba de personalidad es compatible con todo tipo de seudónimo. Las aplicaciones podrían diseñarse de tal manera que alguien con una sola prueba de identificación de persona pueda crear hasta cinco perfiles dentro de la aplicación, dejando espacio para cuentas seudónimas. Incluso se podrían usar fórmulas cuadráticas: N representa un costo de $N². Pero, ¿lo harán?

Un pesimista, sin embargo, podría argumentar que es ingenuo tratar de crear una forma de identificación más respetuosa con la privacidad y esperar que realmente se adopte de la manera correcta, porque los poderes fácticos no son respetuosos con la privacidad, y si un actor poderoso obtiene una herramienta que podría usarse para obtener mucha más información sobre una persona, Lo usarán de esa manera. En un mundo así, dice el argumento, el único enfoque realista es, desafortunadamente, arrojar arena en los engranajes de cualquier solución de identidad y defender un mundo con anonimato total e islas digitales de comunidades de alta confianza.

Veo el razonamiento detrás de esta forma de pensar, pero me preocupa que tal enfoque, incluso si tiene éxito, conduzca a un mundo en el que no haya forma de que nadie haga nada para contrarrestar la concentración de la riqueza y la centralización de la gobernanza, porque una persona siempre podría fingir ser diez mil. Tales puntos de centralización, a su vez, serían fáciles de capturar para los poderes fácticos. Más bien, estaría a favor de un enfoque moderado, en el que abogamos vigorosamente por soluciones de prueba de personalidad para tener una fuerte privacidad, potencialmente, si se desea, incluso incluir un mecanismo de "N cuentas para $N²" en la capa de protocolo, y crear algo que tenga valores respetuosos con la privacidad y tenga la posibilidad de ser aceptado por el mundo exterior.

Así que... ¿Qué opino?

No existe una forma ideal de prueba de la condición de persona. En cambio, tenemos al menos tres paradigmas diferentes de enfoques que tienen sus propias fortalezas y debilidades únicas. Un cuadro comparativo podría tener el siguiente aspecto:

Lo ideal es tratar estas tres técnicas como complementarias, y combinarlas todas. Como ha demostrado Aadhaar de la India a escala, la biometría de hardware especializado tiene sus ventajas de ser segura a escala. Son muy débiles en la descentralización, aunque esto se puede abordar responsabilizando a los orbes individuales. La biometría de uso general se puede adoptar muy fácilmente hoy en día, pero su seguridad está disminuyendo rápidamente y es posible que solo funcione durante otros 1 o 2 años. Es probable que los sistemas basados en gráficos sociales que se inician con unos pocos cientos de personas que son socialmente cercanas al equipo fundador se enfrenten a constantes compensaciones entre la desaparición total de grandes partes del mundo y la vulnerabilidad a los ataques dentro de las comunidades en las que no tienen visibilidad. Sin embargo, un sistema basado en gráficos sociales que arrancara con decenas de millones de titulares de identificaciones biométricas podría funcionar. El bootstrapping biométrico puede funcionar mejor a corto plazo, y las técnicas basadas en gráficos sociales pueden ser más robustas a largo plazo y asumir una mayor parte de la responsabilidad con el tiempo a medida que mejoran sus algoritmos.

Un posible camino híbrido.

Todos estos equipos están en condiciones de cometer muchos errores, y existen tensiones inevitables entre los intereses comerciales y las necesidades de la comunidad en general, por lo que es importante ejercer mucha vigilancia. Como comunidad, podemos y debemos ampliar las zonas de confort de todos los participantes en el código abierto de su tecnología, exigir auditorías de terceros e incluso software escrito por terceros, y otros controles y equilibrios. También necesitamos más alternativas en cada una de las tres categorías.

Al mismo tiempo, es importante reconocer el trabajo ya realizado: muchos de los equipos que ejecutan estos sistemas han mostrado su voluntad de tomarse la privacidad mucho más en serio que casi cualquier sistema de identidad administrado por el gobierno o las grandes corporaciones, y este es un éxito sobre el que debemos construir.

El problema de hacer un sistema de prueba de personalidad que sea efectivo y confiable, especialmente en manos de personas distantes de la comunidad criptográfica existente, parece bastante desafiante. Definitivamente no envidio a las personas que intentan la tarea, y es probable que lleve años encontrar una fórmula que funcione. El concepto de prueba de personalidad en principio parece muy valioso, y aunque las diversas implementaciones tienen sus riesgos, no tener ninguna prueba de personalidad en absoluto también tiene sus riesgos: un mundo sin prueba de personalidad parece más probable que sea un mundo dominado por soluciones de identidad centralizadas, dinero, pequeñas comunidades cerradas o alguna combinación de los tres. Espero ver más avances en todos los tipos de pruebas de personalidad y, con suerte, ver que los diferentes enfoques finalmente se unan en un todo coherente.

Renuncia:

  1. Este artículo es una reimpresión de [vitalik], Todos los derechos de autor pertenecen al autor original [vitalik]. Si hay objeciones a esta reimpresión, comuníquese con el equipo de Gate Learn y ellos lo manejarán de inmediato.
  2. Descargo de responsabilidad: Los puntos de vista y opiniones expresados en este artículo son únicamente los del autor y no constituyen ningún consejo de inversión.
  3. Las traducciones del artículo a otros idiomas son realizadas por el equipo de Gate Learn. A menos que se mencione, está prohibido copiar, distribuir o plagiar los artículos traducidos.

¿Qué opino sobre la prueba biométrica de la condición de persona?

Intermedio2/26/2024, 8:33:18 AM
El artículo proporciona una explicación detallada de la importancia, el funcionamiento, el funcionamiento de Orb, los problemas clave, las preocupaciones de centralización y cómo las soluciones de verificación de identidad biométrica abordan las preocupaciones de privacidad después del lanzamiento de Worldcoin por parte de Vitalik.

Un agradecimiento especial al equipo de Worldcoin, a la comunidad de Proof of Humanity y a Andrew Miller por el debate.

Uno de los dispositivos más complicados, pero potencialmente uno de los más valiosos, que la gente de la comunidad de Ethereum ha estado tratando de construir es una solución descentralizada de prueba de personalidad. La prueba de la condición de persona, también conocida como el "problema del ser humano único", es una forma limitada de identidad en el mundo real que afirma que una cuenta registrada determinada está controlada por una persona real (y una persona real diferente de todas las demás cuentas registradas), idealmente sin revelar qué persona real es.

Ha habido algunos esfuerzos para abordar este problema: Proof of Humanity, BrightID, Idena y Circles son algunos ejemplos. Algunos de ellos vienen con sus propias aplicaciones (a menudo un token UBI), y algunos han encontrado uso en Gitcoin Passport para verificar qué cuentas son válidas para la votación cuadrática. La tecnología de conocimiento cero como Sismo añade privacidad a muchas de estas soluciones. Más recientemente, hemos visto el surgimiento de un proyecto de prueba de personalidad mucho más grande y ambicioso: Worldcoin.

Worldcoin fue cofundada por Sam Altman, mejor conocido por ser el CEO de OpenAI. La filosofía detrás del proyecto es simple: la IA va a crear mucha abundancia y riqueza para la humanidad, pero también puede matar los trabajos de muchas personas y hacer que sea casi imposible saber quién es un humano y no un bot, por lo que necesitamos tapar ese agujero (i) creando un sistema de prueba de personalidad realmente bueno para que los humanos puedan demostrar que realmente son humanos. y (ii) otorgar a todos una RBU. Worldcoin es único en el sentido de que se basa en una biometría altamente sofisticada, escaneando el iris de cada usuario) utilizando una pieza de hardware especializada llamada "el Orbe":

El objetivo es producir una gran cantidad de estos orbes y distribuirlos ampliamente en todo el mundo y ponerlos en lugares públicos para que sea fácil para cualquier persona obtener una identificación. A favor de Worldcoin, también se han comprometido a descentralizarse con el tiempo. Al principio, esto significa descentralización técnica: ser un L2 en Ethereum usando la pila Optimism y proteger la privacidad de los usuarios con ZK-SNARK y otras técnicas criptográficas. Más adelante, incluye la descentralización de la gobernanza del propio sistema.

Worldcoin ha sido criticado por preocupaciones de privacidad y seguridad en torno al Orbe, problemas de diseño en su "moneda" y por problemas éticos en torno a algunas decisiones que ha tomado la compañía. Algunas de las críticas son muy específicas, centrándose en las decisiones tomadas por el proyecto que fácilmente podrían haberse tomado de otra manera y, de hecho, que el propio proyecto Worldcoin puede estar dispuesto a cambiar. Otros, sin embargo, plantean la preocupación más fundamental de si la biometría, no solo la biometría de escaneo ocular de Worldcoin, sino también los juegos más simples de carga de videos y verificación de rostros utilizados en Proof of Humanity e Idena, son una buena idea. Y otros critican la prueba de la personalidad en general. Los riesgos incluyen filtraciones inevitables de privacidad, una mayor erosión de la capacidad de las personas para navegar por Internet de forma anónima, la coerción por parte de gobiernos autoritarios y la posible imposibilidad de estar seguros al mismo tiempo que están descentralizados.

Esta publicación hablará sobre estos temas y repasará algunos argumentos que pueden ayudarlo a decidir si inclinarse y escanear sus ojos (o cara, o voz, o...) ante nuestros nuevos señores esféricos es una buena idea, y si las alternativas naturales, ya sea usar la prueba de personalidad basada en gráficos sociales o renunciar por completo a la prueba de persona, son mejores.

¿Qué es la prueba de personalidad y por qué es importante?

La forma más sencilla de definir un sistema de prueba de personalidad es: crea una lista de claves públicas donde el sistema garantiza que cada clave está controlada por un humano único. En otras palabras, si eres un humano, puedes poner una clave en la lista, pero no puedes poner dos claves en la lista, y si eres un bot no puedes poner ninguna clave en la lista.

La prueba de personalidad es valiosa porque resuelve muchos problemas anti-spam y anti-concentración de poder que muchas personas tienen, de una manera que evita la dependencia de las autoridades centralizadas y revela la mínima información posible. Si no se resuelven las pruebas de la personalidad, la gobernanza descentralizada (incluida la "microgobernanza", como los votos en las publicaciones en las redes sociales) se vuelve mucho más fácil de capturar por parte de actores muy ricos, incluidos los gobiernos hostiles. Muchos servicios solo podrían prevenir los ataques de denegación de servicio estableciendo un precio de acceso y, a veces, un precio lo suficientemente alto como para mantener alejados a los atacantes también es demasiado alto para muchos usuarios legítimos de bajos ingresos.

Muchas de las principales aplicaciones en el mundo de hoy en día se ocupan de este problema mediante el uso de sistemas de identidad respaldados por el gobierno, como tarjetas de crédito y pasaportes. Esto resuelve el problema, pero hace grandes y quizás inaceptables sacrificios en materia de privacidad, y puede ser atacado trivialmente por los propios gobiernos.

¿Cuántos defensores de la prueba de personalidad ven el riesgo de dos caras al que nos enfrentamos? Fuente de la imagen.

En muchos proyectos de prueba de personalidad, no solo Worldcoin, sino también Proof of Humanity, Circles y otros, la "aplicación insignia" es un "token N por persona" incorporado (a veces llamado "token UBI"). Cada usuario registrado en el sistema recibe una cantidad fija de tokens cada día (u hora, o semana). Pero hay muchas otras aplicaciones:

En muchos de estos casos, el denominador común es el deseo de crear mecanismos abiertos y democráticos, evitando tanto el control centralizado por parte de los operadores de un proyecto como la dominación por parte de sus usuarios más ricos. Esto último es especialmente importante en la gobernanza descentralizada. En muchos de estos casos, las soluciones existentes hoy en día se basan en una combinación de (i) algoritmos de IA altamente opacos que dejan mucho espacio para discriminar indetectablemente a los usuarios que simplemente no les gustan a los operadores, y (ii) identificaciones centralizadas, también conocidas como "KYC". Una solución eficaz de prueba de personalidad sería una alternativa mucho mejor, ya que lograría las propiedades de seguridad que necesitan esas aplicaciones sin las trampas de los enfoques centralizados existentes.

¿Cuáles son algunos de los primeros intentos de probar la condición de persona?

Hay dos formas principales de prueba de la condición de persona: la basada en gráficos sociales y la biométrica. La prueba de personalidad basada en gráficos sociales se basa en alguna forma de avale: si Alice, Bob, Charlie y David son humanos verificados, y todos dicen que Emily es una humana verificada, entonces Emily probablemente también sea una humana verificada. El aval a menudo se mejora con incentivos: si Alice dice que Emily es humana, pero resulta que no lo es, entonces Alice y Emily pueden ser penalizadas. La prueba biométrica de personalidad implica verificar algún rasgo físico o de comportamiento de Emily, que distingue a los humanos de los bots (y a los humanos individuales entre sí). La mayoría de los proyectos utilizan una combinación de las dos técnicas.

Los cuatro sistemas que mencioné al principio de la publicación funcionan aproximadamente de la siguiente manera:

  • Prueba de humanidad: subes un video de ti mismo y proporcionas un depósito. Para ser aprobado, un usuario existente debe responder por usted, y debe pasar una cantidad de tiempo durante el cual puede ser desafiado. Si hay una impugnación, un tribunal descentralizado de Kleros determina si su video era genuino o no; Si no es así, pierdes tu depósito y el retador obtiene una recompensa.
  • BrightID: te unes a una videollamada "fiesta de verificación" con otros usuarios, donde todos se verifican entre sí. Los niveles más altos de verificación están disponibles a través de Bitu, un sistema en el que puede obtener la verificación si suficientes otros usuarios verificados por Bitu responden por usted.
  • Idena: juegas un juego de captcha en un momento específico (para evitar que las personas participen varias veces); Parte del juego CAPTCHA consiste en crear y verificar captchas que luego se utilizarán para verificar otros.
  • Circles: un usuario existente de Circles responde por ti. Circles es único en el sentido de que no intenta crear una "identificación verificable globalmente"; Más bien, crea un gráfico de relaciones de confianza, donde la confiabilidad de alguien solo se puede verificar desde la perspectiva de su propia posición en ese gráfico.

¿Cómo funciona Worldcoin?

Cada usuario de Worldcoin instala una aplicación en su teléfono, que genera una clave privada y pública, muy parecida a una billetera Ethereum. Luego van en persona a visitar un "Orbe". El usuario mira fijamente a la cámara del Orbe y, al mismo tiempo, le muestra un código QR generado por su aplicación Worldcoin, que contiene su clave pública. El Orb escanea los ojos del usuario y utiliza un complicado escaneo de hardware y clasificadores de aprendizaje automático para verificar que:

  1. El usuario es un ser humano real
  2. El iris del usuario no coincide con el iris de ningún otro usuario que haya utilizado previamente el sistema

Si se superan ambos escaneos, el orbe firma un mensaje que aprueba un hash especializado del escaneo del iris del usuario. El hash se carga en una base de datos, actualmente un servidor centralizado, destinado a ser reemplazado por un sistema descentralizado en cadena una vez que estén seguros de que el mecanismo de hash funciona. El sistema no almacena escaneos completos del iris; Solo almacena hashes, y estos hashes se utilizan para comprobar la unicidad. A partir de ese momento, el usuario tiene un "ID mundial".

Un titular de World ID puede demostrar que es un ser humano único generando un ZK-SNARK que demuestre que posee la clave privada correspondiente a una clave pública en la base de datos, sin revelar qué clave posee. Por lo tanto, incluso si alguien vuelve a escanear su iris, no podrá ver ninguna acción que haya realizado.

¿Cuáles son los principales problemas con la construcción de Worldcoin?

Hay cuatro riesgos principales que vienen inmediatamente a la mente:

  • Privacidad. El registro de las exploraciones del iris puede revelar información. Como mínimo, si alguien más escanea tu iris, puede cotejarlo con la base de datos para determinar si tienes o no un World ID. Potencialmente, las exploraciones del iris podrían revelar más información.
  • Accesibilidad. Los ID de mundo no serán accesibles de manera confiable a menos que haya tantos orbes que cualquier persona en el mundo pueda acceder fácilmente a uno.
  • Centralización. El Orb es un dispositivo de hardware, y no tenemos forma de verificar que se construyó correctamente y no tiene puertas traseras. Por lo tanto, incluso si la capa de software es perfecta y está totalmente descentralizada, la Fundación Worldcoin todavía tiene la capacidad de insertar una puerta trasera en el sistema, lo que le permite crear arbitrariamente muchas identidades humanas falsas.
  • Seguridad. Los teléfonos de los usuarios podrían ser hackeados, los usuarios podrían ser coaccionados para escanear sus iris mientras muestran una clave pública que pertenece a otra persona, y existe la posibilidad de imprimir en 3D "personas falsas" que pueden pasar el escaneo del iris y obtener identificaciones mundiales.

Es importante distinguir entre (i) cuestiones específicas de las elecciones realizadas por Worldcoin, (ii) cuestiones que inevitablemente tendrá cualquier prueba biométrica de personalidad, y (iii) cuestiones que tendrá cualquier prueba de personalidad en general. Por ejemplo, inscribirse en Proof of Humanity significa publicar tu rostro en Internet. Unirse a un grupo de verificación de BrightID no hace exactamente eso, pero aún así expone quién es usted a mucha gente. Y unirte a los círculos expone públicamente tu gráfico social. Worldcoin es significativamente mejor para preservar la privacidad que cualquiera de ellos. Por otro lado, Worldcoin depende de hardware especializado, lo que abre el desafío de confiar en que los fabricantes de orbes hayan construido los orbes correctamente, un desafío que no tiene paralelos en Proof of Humanity, BrightID o Circles. Incluso es concebible que en el futuro, alguien que no sea Worldcoin cree una solución de hardware especializado diferente que tenga diferentes compensaciones.

¿Cómo abordan los esquemas de prueba de personalidad biométrica los problemas de privacidad?

La fuga de privacidad potencial más obvia y más grande que tiene cualquier sistema de prueba de personalidad es vincular cada acción que realiza una persona con una identidad del mundo real. Esta fuga de datos es muy grande, podría decirse que inaceptablemente grande, pero afortunadamente es fácil de resolver con tecnología a prueba de conocimiento cero . En lugar de hacer directamente una firma con una clave privada cuya clave pública correspondiente está en la base de datos, un usuario podría hacer un ZK-SNARK que demuestre que posee la clave privada cuya clave pública correspondiente está en algún lugar de la base de datos, sin revelar qué clave específica tiene. Esto se puede hacer de forma genérica con herramientas como Sismo (ver aquí la implementación específica de Proof of Humanity), y Worldcoin tiene su propia implementación incorporada. Es importante dar crédito a la prueba de personalidad "criptonativa" aquí: en realidad se preocupan por dar este paso básico para proporcionar anonimización, mientras que básicamente todas las soluciones de identidad centralizadas no lo hacen.

Una filtración de privacidad más sutil, pero aún importante, es la mera existencia de un registro público de escaneos biométricos. En el caso de Proof of Humanity, se trata de una gran cantidad de datos: obtienes un video de cada participante de Proof of Humanity, lo que deja muy claro a cualquier persona en el mundo que se preocupe por investigar quiénes son todos los participantes de Proof of Humanity. En el caso de Worldcoin, la filtración es mucho más limitada: el Orb calcula y publica localmente solo un "hash" del escaneo del iris de cada persona. Este hash no es un hash normal como SHA256; más bien, es un algoritmo especializado basado en filtros Gabor aprendidos por máquina que se ocupa de la inexactitud inherente a cualquier escaneo biométrico y garantiza que los hashes sucesivos tomados del iris de la misma persona tengan resultados similares.

Azul: porcentaje de bits que difieren entre dos escaneos del iris de la misma persona. Naranja: porcentaje de bits que difieren entre dos escaneos del iris de dos personas diferentes.

Estos hashes de iris filtran solo una pequeña cantidad de datos. Si un adversario puede escanear a la fuerza (o en secreto) su iris, entonces puede calcular el hash de su iris por sí mismo y compararlo con la base de datos de hashes del iris para ver si participó o no en el sistema. Esta capacidad de verificar si alguien se registró o no es necesaria para que el sistema en sí evite que las personas se registren varias veces, pero siempre existe la posibilidad de que de alguna manera se abuse de ella. Además, existe la posibilidad de que los hashes del iris filtren cierta cantidad de datos médicos (sexo, etnia, tal vez condiciones médicas), pero esta fuga es mucho menor que la que podría capturar casi cualquier otro sistema de recopilación masiva de datos en uso hoy en día (p. ej. incluso cámaras callejeras). En general, me parece suficiente la privacidad de almacenar hashes de iris.

Si otros no están de acuerdo con este juicio y deciden que quieren diseñar un sistema con aún más privacidad, hay dos formas de hacerlo:

  1. Si el algoritmo de hash del iris se puede mejorar para que la diferencia entre dos escaneos de la misma persona sea mucho menor (p. ej. fiablemente por debajo del 10% de cambios de bits), entonces en lugar de almacenar hashes de iris completos, el sistema puede almacenar un número menor de bits de corrección de errores para los hashes de iris (ver: extractores difusos). Si la diferencia entre dos escaneos es inferior al 10%, entonces el número de bits que deben publicarse sería al menos 5 veces menor.
  2. Si queremos ir más allá, podríamos almacenar la base de datos de hash de iris dentro de un sistema de computación multipartita (MPC) al que solo podrían acceder los orbes (con un límite de velocidad), lo que haría que los datos fueran inaccesibles por completo, pero a costa de una complejidad significativa del protocolo y la complejidad social en el gobierno del conjunto de participantes de MPC. Esto tendría la ventaja de que los usuarios no podrían demostrar un vínculo entre dos ID de mundo diferentes que tuvieran en diferentes momentos, incluso si quisieran.

Desafortunadamente, estas técnicas no son aplicables a Proof of Humanity, porque Proof of Humanity requiere que el video completo de cada participante esté disponible públicamente para que pueda ser impugnado si hay indicios de que es falso (incluidas las falsificaciones generadas por IA) y, en tales casos, se investigue con más detalle.

En general, a pesar de la "vibra distópica" de mirar fijamente a un orbe y dejar que escanee profundamente en tus globos oculares, parece que los sistemas de hardware especializados pueden hacer un trabajo bastante decente para proteger la privacidad. Sin embargo, la otra cara de la moneda es que los sistemas de hardware especializados introducen problemas de centralización mucho mayores. Por lo tanto, los cypherpunks parecemos estar atrapados en un aprieto: tenemos que cambiar un valor cypherpunk profundamente arraigado por otro.

¿Cuáles son los problemas de accesibilidad en los sistemas biométricos de prueba de personalidad?

El hardware especializado introduce problemas de accesibilidad porque, bueno, el hardware especializado no es muy accesible. Entre el 51% y el 64% de los africanos subsaharianos ahora tienen teléfonos inteligentes, y se prevé que esto aumente al 87% para 2030. Pero si bien hay miles de millones de teléfonos inteligentes, solo hay unos pocos cientos de orbes. Incluso con una fabricación distribuida a gran escala, sería difícil llegar a un mundo en el que haya un orbe a menos de cinco kilómetros de todo el mundo.

Pero hay que reconocer que el equipo lo ha estado intentando.

También vale la pena señalar que muchas otras formas de prueba de personalidad tienen problemas de accesibilidad que son aún peores. Es muy difícil unirse a un sistema de prueba de personalidad basado en gráficos sociales a menos que ya conozcas a alguien que esté en el gráfico social. Esto hace que sea muy fácil que estos sistemas permanezcan restringidos a una sola comunidad en un solo país.

Incluso los sistemas de identidad centralizados han aprendido esta lección: el sistema de identificación Aadhaar de la India se basa en la biometría, ya que esa era la única forma de incorporar rápidamente a su población masiva y evitar el fraude masivo de cuentas duplicadas y falsas (lo que resulta en un enorme ahorro de costos), aunque, por supuesto, el sistema Aadhaar en su conjunto es mucho más débil en cuanto a privacidad que cualquier cosa que se proponga a gran escala dentro de la comunidad criptográfica.

Los sistemas con mejor rendimiento desde el punto de vista de la accesibilidad son en realidad sistemas como Proof of Humanity, en los que puedes registrarte utilizando sólo un smartphone, aunque, como hemos visto y como veremos, estos sistemas vienen con todo tipo de otras compensaciones.

¿Cuáles son los problemas de centralización en los sistemas biométricos de prueba de personalidad?

Hay tres:

  1. Riesgos de centralización en la gobernanza de alto nivel del sistema (esp. el sistema que toma las resoluciones finales de alto nivel si los diferentes actores del sistema no están de acuerdo en los juicios subjetivos).
  2. Riesgos de centralización exclusivos de los sistemas que utilizan hardware especializado.
  3. Riesgos de centralización si se utilizan algoritmos patentados para determinar quién es un participante auténtico.

Cualquier sistema de prueba de personalidad debe lidiar con (1), tal vez con la excepción de los sistemas en los que el conjunto de identificaciones "aceptadas" es completamente subjetivo. Si un sistema utiliza incentivos denominados en activos externos (p. ej. ETH, USDC, DAI), entonces no puede ser totalmente subjetivo, por lo que los riesgos de gobernanza se vuelven inevitables.

[2] es un riesgo mucho mayor para Worldcoin que para Proof of Humanity (o BrightID), porque Worldcoin depende de hardware especializado y otros sistemas no.

[3] es un riesgo, particularmente en los sistemas "<a href="https://medium.com/@VitalikButerin/the-meaning-of-de-descentralization-a0c92b76a274">lógicamente centralizados" donde hay un solo sistema que realiza la verificación, a menos que todos los algoritmos sean de código abierto y tengamos la seguridad de que realmente están ejecutando el código que dicen que están. Para los sistemas que dependen exclusivamente de que los usuarios verifiquen a otros usuarios (como Proof of Humanity), no es un riesgo.

¿Cómo aborda Worldcoin los problemas de centralización de hardware?

Actualmente, una entidad afiliada a Worldcoin llamada Tools for Humanity es la única organización que está fabricando orbes. Sin embargo, el código fuente de Orb es mayoritariamente público: puedes ver las especificaciones de hardware en este repositorio de github, y se espera que otras partes del código fuente se publiquen pronto. La licencia es otra de esas licencias de "código compartido, pero no técnicamente de código abierto hasta dentro de cuatro años", similar a la BSL de Uniswap , excepto que además de evitar la bifurcación, también evita lo que consideran un comportamiento poco ético: enumeran específicamente la vigilancia masiva y tres declaraciones internacionales de derechos civiles .

El objetivo declarado del equipo es permitir y alentar a otras organizaciones a crear orbes y, con el tiempo, pasar de los orbes creados por Tools for Humanity a tener algún tipo de DAO que apruebe y administre qué organizaciones pueden hacer orbes que sean reconocidos por el sistema.

Hay dos formas en las que este diseño puede fallar:

  1. No logra descentralizarse realmente. Esto podría suceder debido a la trampa común de los protocolos federados: un fabricante termina dominando en la práctica, lo que hace que el sistema se vuelva a centralizar. Presumiblemente, la gobernanza podría limitar la cantidad de orbes válidos que cada fabricante puede producir, pero esto tendría que gestionarse con cuidado, y ejerce mucha presión sobre la gobernanza para que esté descentralizada y supervise el ecosistema y responda a las amenazas de forma eficaz: una tarea mucho más difícil que, por ejemplo. una DAO bastante estática que solo maneja tareas de resolución de disputas de alto nivel.
  2. Resulta que no es posible hacer que un mecanismo de fabricación distribuida de este tipo sea seguro. Aquí, hay dos riesgos que veo:
    • Fragilidad frente a los malos fabricantes de orbes: si incluso un fabricante de orbes es malicioso o hackeado, puede generar un número ilimitado de hashes de escaneo de iris falsos y darles identificadores mundiales.
    • Restricción gubernamental de orbes: los gobiernos que no quieran que sus ciudadanos participen en el ecosistema de Worldcoin pueden prohibir los orbes en su país. Además, incluso podrían obligar a sus ciudadanos a escanear sus iris, lo que permitiría al gobierno obtener sus cuentas, y los ciudadanos no tendrían forma de responder.

Para hacer que el sistema sea más robusto contra los malos fabricantes de orbes, el equipo de Worldcoin propone realizar auditorías periódicas en los orbes, verificando que estén construidos correctamente y que los componentes clave del hardware se construyeron de acuerdo con las especificaciones y no fueron manipulados después del hecho. Esta es una tarea desafiante: es básicamente algo así como la burocracia de inspecciones nucleares del OIEA , pero para Orbs. La esperanza es que incluso una implementación muy imperfecta de un régimen de auditoría pueda reducir en gran medida el número de orbes falsos.

Para limitar el daño causado por cualquier orbe malo que se cuele, tiene sentido tener una segunda mitigación. Los World ID registrados con diferentes fabricantes de orbes, e idealmente con diferentes orbes, deben distinguirse entre sí. No pasa nada si esta información es privada y solo se almacena en el dispositivo del titular del World ID; Pero sí tiene que ser demostrable bajo demanda. Esto hace posible que el ecosistema responda a los ataques (inevitables) eliminando a los fabricantes de orbes individuales, y tal vez incluso a los orbes individuales, de la lista blanca bajo demanda. Si vemos que el gobierno de Corea del Norte va por ahí y obliga a la gente a escanear sus globos oculares, esos orbes y cualquier cuenta producida por ellos podrían ser desactivados retroactivamente de inmediato.

Cuestiones de seguridad en la prueba de personalidad en general

Además de los problemas específicos de Worldcoin, existen preocupaciones que afectan a los diseños de prueba de personalidad en general. Los principales que se me ocurren son:

  1. Personas falsas impresas en 3D: se podría utilizar la IA para generar fotografías o incluso impresiones en 3D de personas falsas que sean lo suficientemente convincentes como para ser aceptadas por el software Orb. Si un solo grupo hace esto, puede generar un número ilimitado de identidades.
  2. Posibilidad de vender identificaciones: alguien puede proporcionar la clave pública de otra persona en lugar de la suya propia al registrarse, dando a esa persona el control de su identificación registrada, a cambio de dinero. Esto parece estar ocurriendo ya. Además de vender, también existe la posibilidad de alquilar identificaciones para usarlas por un corto tiempo en una sola aplicación.
  3. Hackeo telefónico: si el teléfono de una persona es hackeado, el hacker puede robar la clave que controla su World ID.
  4. Coerción gubernamental para robar identificaciones: un gobierno podría obligar a sus ciudadanos a ser verificados mientras muestran un código QR perteneciente al gobierno. De esta manera, un gobierno malintencionado podría obtener acceso a millones de identificaciones. En un sistema biométrico, esto podría incluso hacerse de forma encubierta: los gobiernos podrían usar orbes ofuscados para extraer identificaciones mundiales de todos los que ingresan a su país en la cabina de control de pasaportes.

[1] es específico de los sistemas biométricos de prueba de personalidad. [2] y [3] son comunes tanto a los diseños biométricos como a los no biométricos. [4] también es común a ambos, aunque las técnicas que se requieren serían muy diferentes en ambos casos; en esta sección me centraré en las cuestiones del caso biométrico.

Estas son debilidades bastante serias. Algunas ya se han abordado en los protocolos existentes, otras pueden abordarse con futuras mejoras, y otras parecen ser limitaciones fundamentales.

¿Cómo podemos lidiar con personas falsas?

Esto es un riesgo significativamente menor para Worldcoin que para los sistemas similares a Proof of Humanity: un escaneo en persona puede examinar muchas características de una persona, y es bastante difícil de falsificar, en comparación con el mero hecho de falsificar un video. El hardware especializado es inherentemente más difícil de engañar que el hardware básico, que a su vez es más difícil de engañar que los algoritmos digitales que verifican las imágenes y los videos que se envían de forma remota.

¿Podría alguien imprimir en 3D algo que pueda engañar incluso al hardware especializado eventualmente? Probablemente. Espero que en algún momento veamos crecientes tensiones entre el objetivo de mantener el mecanismo abierto y mantenerlo seguro: los algoritmos de IA de código abierto son inherentemente más vulnerables al aprendizaje automático adversario. Los algoritmos de caja negra están más protegidos, pero es difícil saber que un algoritmo de caja negra no fue entrenado para incluir puertas traseras. Tal vez las tecnologías ZK-ML podrían darnos lo mejor de ambos mundos. Aunque en algún momento en un futuro aún más lejano, es probable que incluso los mejores algoritmos de IA sean engañados por las mejores personas falsas impresas en 3D.

Sin embargo, a partir de mis discusiones con los equipos de Worldcoin y Proof of Humanity, parece que en este momento ninguno de los dos protocolos está experimentando ataques significativos de deep fake, por la sencilla razón de que contratar a trabajadores reales de bajos salarios para que se registren en su nombre es bastante barato y fácil.

¿Podemos evitar la venta de identificaciones?

A corto plazo, evitar este tipo de subcontratación es difícil, porque la mayoría de las personas en el mundo ni siquiera conocen los protocolos de prueba de personalidad, y si les dices que sostengan un código QR y escaneen sus ojos por $ 30, lo harán. Una vez que más personas sepan qué son los protocolos de prueba de persona, se hace posible una mitigación bastante simple: permitir que las personas que tienen una identificación registrada vuelvan a registrarse, cancelando la identificación anterior. Esto hace que la "venta de identificación" sea mucho menos creíble, porque alguien que le vende su identificación puede ir y volver a registrarse, cancelando la identificación que acaba de vender. Sin embargo, llegar a este punto requiere que el protocolo sea muy conocido y que los orbes sean muy accesibles para que el registro bajo demanda sea práctico.

Esta es una de las razones por las que tener una moneda UBI integrada en un sistema de prueba de personalidad es valioso: una moneda UBI proporciona un incentivo fácilmente comprensible para que las personas (i) aprendan sobre el protocolo y se registren, y (ii) se vuelvan a registrar inmediatamente si se registran en nombre de otra persona. El nuevo registro también evita la piratería telefónica.

¿Podemos evitar la coerción en los sistemas biométricos de prueba de personalidad?

Esto depende del tipo de coerción de la que estemos hablando. Las posibles formas de coerción incluyen:

  • Los gobiernos escanean los ojos (o las caras, o...) de las personas en los controles fronterizos y otros puntos de control gubernamentales de rutina, y usan esto para registrar (y con frecuencia volver a registrar) a sus ciudadanos
  • Los gobiernos prohíben los orbes en el país para evitar que las personas se vuelvan a registrar de forma independiente
  • Personas que compran identificaciones y luego amenazan con dañar al vendedor si detectan que la identificación ha sido invalidada debido a la repetición del registro.
  • Aplicaciones (posiblemente administradas por el gobierno) que requieren que las personas "inicien sesión" iniciando sesión con su clave pública directamente, lo que les permite ver el escaneo biométrico correspondiente y, por lo tanto, el vínculo entre la identificación actual del usuario y cualquier identificación futura que obtengan al volver a registrarse. Un temor común es que esto hace que sea demasiado fácil crear "registros permanentes" que se queden con una persona durante toda su vida.

Toda su RBU y su poder de voto nos pertenecen. Fuente de la imagen.

Especialmente en manos de usuarios poco sofisticados, parece bastante difícil prevenir estas situaciones. Los usuarios podrían salir de su país para (re)registrarse en un Orb en un país más seguro, pero este es un proceso difícil y de alto costo. En un entorno legal verdaderamente hostil, buscar un Orbe independiente parece demasiado difícil y arriesgado.

Lo que sí es factible es hacer que este tipo de abuso sea más molesto de implementar y detectable. El enfoque de Proof of Humanity de exigir a una persona que diga una frase específica al registrarse es un buen ejemplo: puede ser suficiente para evitar el escaneo oculto, lo que requiere que la coerción sea mucho más descarada, y la frase de registro podría incluso incluir una declaración que confirme que el encuestado sabe que tiene derecho a volver a registrarse de forma independiente y puede obtener monedas UBI u otras recompensas. Si se detecta coerción, los dispositivos utilizados para realizar registros coercitivos en masa podrían ver revocados sus derechos de acceso. Para evitar que las aplicaciones vinculen las identificaciones actuales y anteriores de las personas e intenten dejar "registros permanentes", la aplicación predeterminada de prueba de personalidad podría bloquear la clave del usuario en hardware de confianza, evitando que cualquier aplicación use la clave directamente sin la capa de anonimato ZK-SNARK en el medio. Si un gobierno o un desarrollador de aplicaciones quiere evitar esto, tendría que exigir el uso de su propia aplicación personalizada.

Con una combinación de estas técnicas y una vigilancia activa, parece posible excluir a los regímenes que son verdaderamente hostiles y mantener honestos a los regímenes que son meramente medianamente malos (como lo es gran parte del mundo). Esto se puede hacer ya sea mediante un proyecto como Worldcoin o Proof of Humanity manteniendo su propia burocracia para esta tarea, o revelando más información sobre cómo se registró una identificación (por ejemplo, en Worldcoin, de qué Orbe proviene), y dejando esta tarea de clasificación a la comunidad.

¿Podemos evitar el alquiler de identificaciones (por ejemplo, para vender votos)?

El alquiler de su documento de identidad no se ve impedido por el nuevo registro. Esto está bien en algunas aplicaciones: el costo de alquilar su derecho a cobrar la parte del día de la moneda UBI será solo el valor de la parte del día de la moneda UBI. Pero en aplicaciones como la votación, la venta fácil de votos es un gran problema.

Sistemas como el MACI pueden evitar que vendas tu voto de manera creíble, al permitirte emitir más tarde otro voto que invalide tu voto anterior, de tal manera que nadie pueda saber si realmente emitiste o no ese voto. Sin embargo, si el sobornador controla qué clave obtiene en el momento del registro, esto no ayuda.

Veo dos soluciones aquí:

  1. Ejecute aplicaciones completas dentro de un MPC. Esto también cubriría el proceso de reinscripción: cuando una persona se registra en el MPC, el MPC le asigna una identificación que es separada y no se puede vincular a su identificación de prueba de persona, y cuando una persona se vuelve a registrar, solo el MPC sabría qué cuenta desactivar. Esto evita que los usuarios hagan pruebas sobre sus acciones, porque cada paso importante se realiza dentro de un MPC utilizando información privada que solo es conocida por el MPC.
  2. Ceremonias de registro descentralizadas. Básicamente, implemente algo como este protocolo de registro de claves en persona que requiere que cuatro participantes locales seleccionados al azar trabajen juntos para registrar a alguien. Esto podría garantizar que el registro sea un procedimiento "confiable" durante el cual un atacante no pueda husmear.

Los sistemas basados en gráficos sociales pueden funcionar mejor aquí, porque pueden crear procesos de registro locales descentralizados automáticamente como un subproducto de cómo funcionan.

¿Cómo se compara la biometría con el otro candidato principal para la prueba de personalidad, la verificación basada en gráficos sociales?

Aparte de los enfoques biométricos, el principal otro contendiente para la prueba de la personalidad hasta ahora ha sido la verificación basada en gráficos sociales. Todos los sistemas de verificación basados en gráficos sociales funcionan con el mismo principio: si hay un montón de identidades verificadas existentes que dan fe de la validez de su identidad, entonces probablemente sea válido y también debería obtener el estado verificado.

Si solo unos pocos usuarios reales (accidental o maliciosamente) verifican a los usuarios falsos, entonces puede usar técnicas básicas de teoría de grafos para poner un límite superior a la cantidad de usuarios falsos que son verificados por el sistema. Fuente: https://www.sciencedirect.com/science/article/abs/pii/S0045790622000611.

Los defensores de la verificación basada en gráficos sociales a menudo la describen como una mejor alternativa a la biometría por varias razones:

  • No depende de hardware de propósito especial, lo que hace que sea mucho más fácil de implementar
  • Evita una carrera armamentista permanente entre los fabricantes que intentan crear personas falsas y el Orb que necesita actualizarse para rechazar a esas personas falsas
  • No requiere la recopilación de datos biométricos, lo que lo hace más respetuoso con la privacidad
  • Es potencialmente más amigable con el seudónimo, porque si alguien elige dividir su vida en Internet en varias identidades que mantiene separadas entre sí, ambas identidades podrían verificarse (pero mantener múltiples identidades genuinas y separadas sacrifica los efectos de red y tiene un alto costo, por lo que no es algo que los atacantes puedan hacer fácilmente)
  • Los enfoques biométricos dan una puntuación binaria de "es un ser humano" o "no es un ser humano", lo cual es frágil: las personas que son rechazadas accidentalmente terminarían sin ninguna RBU en absoluto, y potencialmente sin la capacidad de participar en la vida en línea. Los enfoques basados en gráficos sociales pueden dar una puntuación numérica más matizada, lo que, por supuesto, puede ser moderadamente injusto para algunos participantes, pero es poco probable que "des-persona" a alguien por completo.

Mi perspectiva sobre estos argumentos es que estoy en gran medida de acuerdo con ellos. Estas son ventajas genuinas de los enfoques basados en gráficos sociales y deben tomarse en serio. Sin embargo, también vale la pena tener en cuenta las debilidades de los enfoques basados en gráficos sociales:

  • Bootstrapping: para que un usuario se una a un sistema basado en grafos sociales, ese usuario debe conocer a alguien que ya esté en el grafo. Esto dificulta la adopción a gran escala y corre el riesgo de excluir regiones enteras del mundo que no tienen suerte en el proceso inicial de arranque.
  • Privacidad: si bien los enfoques basados en gráficos sociales evitan recopilar datos biométricos, a menudo terminan filtrando información sobre las relaciones sociales de una persona, lo que puede conducir a riesgos aún mayores. Por supuesto, la tecnología de conocimiento cero puede mitigar esto (p. ej. ver esta propuesta de Barry Whitehat), pero la interdependencia inherente a un grafo y la necesidad de realizar análisis matemáticos en el grafo hace que sea más difícil lograr el mismo nivel de ocultación de datos que se puede lograr con la biometría.
  • Desigualdad: cada persona solo puede tener una identificación biométrica, pero una persona rica y socialmente bien conectada podría usar sus conexiones para generar muchas identificaciones. Esencialmente, la misma flexibilidad que podría permitir que un sistema basado en grafos sociales otorgue múltiples seudónimos a alguien (p. ej. un activista) que realmente necesita esa característica probablemente también implicaría que las personas más poderosas y bien conectadas pueden obtener más seudónimos que las personas menos poderosas y bien conectadas.
  • Riesgo de colapso en la centralización: la mayoría de las personas son demasiado perezosas para dedicar tiempo a informar en una aplicación de Internet quién es una persona real y quién no. Como resultado, existe el riesgo de que el sistema llegue con el tiempo a favorecer formas "fáciles" de ser incluido que dependen de las autoridades centralizadas, y el "gráfico social" de que los usuarios del sistema se conviertan de facto en el gráfico social de qué países reconocen a qué personas como ciudadanos, dándonos KYC centralizado con pasos adicionales innecesarios.

¿Es compatible la prueba de personalidad con el seudónimo en el mundo real?

En principio, la prueba de personalidad es compatible con todo tipo de seudónimo. Las aplicaciones podrían diseñarse de tal manera que alguien con una sola prueba de identificación de persona pueda crear hasta cinco perfiles dentro de la aplicación, dejando espacio para cuentas seudónimas. Incluso se podrían usar fórmulas cuadráticas: N representa un costo de $N². Pero, ¿lo harán?

Un pesimista, sin embargo, podría argumentar que es ingenuo tratar de crear una forma de identificación más respetuosa con la privacidad y esperar que realmente se adopte de la manera correcta, porque los poderes fácticos no son respetuosos con la privacidad, y si un actor poderoso obtiene una herramienta que podría usarse para obtener mucha más información sobre una persona, Lo usarán de esa manera. En un mundo así, dice el argumento, el único enfoque realista es, desafortunadamente, arrojar arena en los engranajes de cualquier solución de identidad y defender un mundo con anonimato total e islas digitales de comunidades de alta confianza.

Veo el razonamiento detrás de esta forma de pensar, pero me preocupa que tal enfoque, incluso si tiene éxito, conduzca a un mundo en el que no haya forma de que nadie haga nada para contrarrestar la concentración de la riqueza y la centralización de la gobernanza, porque una persona siempre podría fingir ser diez mil. Tales puntos de centralización, a su vez, serían fáciles de capturar para los poderes fácticos. Más bien, estaría a favor de un enfoque moderado, en el que abogamos vigorosamente por soluciones de prueba de personalidad para tener una fuerte privacidad, potencialmente, si se desea, incluso incluir un mecanismo de "N cuentas para $N²" en la capa de protocolo, y crear algo que tenga valores respetuosos con la privacidad y tenga la posibilidad de ser aceptado por el mundo exterior.

Así que... ¿Qué opino?

No existe una forma ideal de prueba de la condición de persona. En cambio, tenemos al menos tres paradigmas diferentes de enfoques que tienen sus propias fortalezas y debilidades únicas. Un cuadro comparativo podría tener el siguiente aspecto:

Lo ideal es tratar estas tres técnicas como complementarias, y combinarlas todas. Como ha demostrado Aadhaar de la India a escala, la biometría de hardware especializado tiene sus ventajas de ser segura a escala. Son muy débiles en la descentralización, aunque esto se puede abordar responsabilizando a los orbes individuales. La biometría de uso general se puede adoptar muy fácilmente hoy en día, pero su seguridad está disminuyendo rápidamente y es posible que solo funcione durante otros 1 o 2 años. Es probable que los sistemas basados en gráficos sociales que se inician con unos pocos cientos de personas que son socialmente cercanas al equipo fundador se enfrenten a constantes compensaciones entre la desaparición total de grandes partes del mundo y la vulnerabilidad a los ataques dentro de las comunidades en las que no tienen visibilidad. Sin embargo, un sistema basado en gráficos sociales que arrancara con decenas de millones de titulares de identificaciones biométricas podría funcionar. El bootstrapping biométrico puede funcionar mejor a corto plazo, y las técnicas basadas en gráficos sociales pueden ser más robustas a largo plazo y asumir una mayor parte de la responsabilidad con el tiempo a medida que mejoran sus algoritmos.

Un posible camino híbrido.

Todos estos equipos están en condiciones de cometer muchos errores, y existen tensiones inevitables entre los intereses comerciales y las necesidades de la comunidad en general, por lo que es importante ejercer mucha vigilancia. Como comunidad, podemos y debemos ampliar las zonas de confort de todos los participantes en el código abierto de su tecnología, exigir auditorías de terceros e incluso software escrito por terceros, y otros controles y equilibrios. También necesitamos más alternativas en cada una de las tres categorías.

Al mismo tiempo, es importante reconocer el trabajo ya realizado: muchos de los equipos que ejecutan estos sistemas han mostrado su voluntad de tomarse la privacidad mucho más en serio que casi cualquier sistema de identidad administrado por el gobierno o las grandes corporaciones, y este es un éxito sobre el que debemos construir.

El problema de hacer un sistema de prueba de personalidad que sea efectivo y confiable, especialmente en manos de personas distantes de la comunidad criptográfica existente, parece bastante desafiante. Definitivamente no envidio a las personas que intentan la tarea, y es probable que lleve años encontrar una fórmula que funcione. El concepto de prueba de personalidad en principio parece muy valioso, y aunque las diversas implementaciones tienen sus riesgos, no tener ninguna prueba de personalidad en absoluto también tiene sus riesgos: un mundo sin prueba de personalidad parece más probable que sea un mundo dominado por soluciones de identidad centralizadas, dinero, pequeñas comunidades cerradas o alguna combinación de los tres. Espero ver más avances en todos los tipos de pruebas de personalidad y, con suerte, ver que los diferentes enfoques finalmente se unan en un todo coherente.

Renuncia:

  1. Este artículo es una reimpresión de [vitalik], Todos los derechos de autor pertenecen al autor original [vitalik]. Si hay objeciones a esta reimpresión, comuníquese con el equipo de Gate Learn y ellos lo manejarán de inmediato.
  2. Descargo de responsabilidad: Los puntos de vista y opiniones expresados en este artículo son únicamente los del autor y no constituyen ningún consejo de inversión.
  3. Las traducciones del artículo a otros idiomas son realizadas por el equipo de Gate Learn. A menos que se mencione, está prohibido copiar, distribuir o plagiar los artículos traducidos.
เริ่มตอนนี้
สมัครและรับรางวัล
$100