¡Se cayó el cielo, bebés! Estos últimos días he estado tan ocupado que me he ido a la luna, y al fin pude tomar un respiro para ver la lista de @SentientAGI, ¡originalmente estaba estable en alrededor del puesto 80, pero al abrirla, vaya, ¡simplemente desaparecí!
Esta sensación de desaparecer repentinamente es realmente demasiado familiar, ya me ha pasado varias veces antes, mi mentalidad ya está casi enloqueciendo.
Así que decidí concentrarme y estudiar bien este proyecto, también revisé los lugares que no había entendido antes. Al final, cuando vi su investigación sobre OML, de inmediato llamó mi atención. ¿No resuelve esto el gran problema de la distribución de modelos de IA ahora mismo?
■Piénsalo, solo hay dos situaciones en las que usamos IA:
O son ChatGPT, Claude, que solo se pueden llamar a través de la API de otros, ni siquiera se puede procesar datos privados en su propia computadora, y no se sabe cómo lo calculan.
O bien es algo como Llama 2, que es de código abierto. Aunque se puede descargar y ejecutar localmente, una vez que el modelo del desarrollador se envía, no se puede controlar. Si alguien lo copia y lo vende, no hay forma de rastrearlo, y al final, si no se gana dinero, no hay motivación para seguir mejorando.
■Y lo que están haciendo con OML es intentar resolver esta contradicción:
Es decir, "cualquiera puede descargar el modelo, pero no se puede usar a la ligera", se puede descargar el modelo en su propia computadora, pero para ejecutarlo realmente, se necesita la autorización encriptada proporcionada por el desarrollador; no se puede descompilar el modelo para copiar la fórmula ni falsificar la autorización.
■No solo encontraron una solución, sino que también aclararon las cosas:
Por primera vez se dice claramente que se debe prevenir el "copiar modelos" y "falsificar autorizaciones", se ha calculado si esto se puede lograr (por ejemplo, en qué situaciones se puede garantizar un 100% de seguridad), además se han dado varias formas de implementación, como enredar el código del modelo y usar criptografía para bloquear las partes clave.
■Lo más confiable es que realmente hicieron una versión viable OML 1.0, dos diseños muy interesantes:
Uno es dar al modelo una "huella dactilar exclusiva" que, no importa cómo se modifique, se puede identificar quién es y se puede responsabilizar.
El otro es "fianza" donde se utilizan modelos para apostar criptomonedas, si hay infracciones se les descuentan fondos y se les coloca en una lista negra, por lo que nadie les dará autorización en el futuro.
Creo que esta investigación es muy concreta, los desarrolladores pueden abrir su código con tranquilidad y ganar dinero, ¡y nosotros también podemos usar el modelo localmente sin preocuparnos por la piratería! #SentientAGI
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¡Se cayó el cielo, bebés! Estos últimos días he estado tan ocupado que me he ido a la luna, y al fin pude tomar un respiro para ver la lista de @SentientAGI, ¡originalmente estaba estable en alrededor del puesto 80, pero al abrirla, vaya, ¡simplemente desaparecí!
Esta sensación de desaparecer repentinamente es realmente demasiado familiar, ya me ha pasado varias veces antes, mi mentalidad ya está casi enloqueciendo.
Así que decidí concentrarme y estudiar bien este proyecto, también revisé los lugares que no había entendido antes. Al final, cuando vi su investigación sobre OML, de inmediato llamó mi atención. ¿No resuelve esto el gran problema de la distribución de modelos de IA ahora mismo?
■Piénsalo, solo hay dos situaciones en las que usamos IA:
O son ChatGPT, Claude, que solo se pueden llamar a través de la API de otros, ni siquiera se puede procesar datos privados en su propia computadora, y no se sabe cómo lo calculan.
O bien es algo como Llama 2, que es de código abierto. Aunque se puede descargar y ejecutar localmente, una vez que el modelo del desarrollador se envía, no se puede controlar. Si alguien lo copia y lo vende, no hay forma de rastrearlo, y al final, si no se gana dinero, no hay motivación para seguir mejorando.
■Y lo que están haciendo con OML es intentar resolver esta contradicción:
Es decir, "cualquiera puede descargar el modelo, pero no se puede usar a la ligera", se puede descargar el modelo en su propia computadora, pero para ejecutarlo realmente, se necesita la autorización encriptada proporcionada por el desarrollador; no se puede descompilar el modelo para copiar la fórmula ni falsificar la autorización.
■No solo encontraron una solución, sino que también aclararon las cosas:
Por primera vez se dice claramente que se debe prevenir el "copiar modelos" y "falsificar autorizaciones", se ha calculado si esto se puede lograr (por ejemplo, en qué situaciones se puede garantizar un 100% de seguridad), además se han dado varias formas de implementación, como enredar el código del modelo y usar criptografía para bloquear las partes clave.
■Lo más confiable es que realmente hicieron una versión viable OML 1.0, dos diseños muy interesantes:
Uno es dar al modelo una "huella dactilar exclusiva" que, no importa cómo se modifique, se puede identificar quién es y se puede responsabilizar.
El otro es "fianza" donde se utilizan modelos para apostar criptomonedas, si hay infracciones se les descuentan fondos y se les coloca en una lista negra, por lo que nadie les dará autorización en el futuro.
Creo que esta investigación es muy concreta, los desarrolladores pueden abrir su código con tranquilidad y ganar dinero, ¡y nosotros también podemos usar el modelo localmente sin preocuparnos por la piratería!
#SentientAGI