Recientemente he estado reflexionando sobre un fenómeno: ¿por qué los chatbots y las herramientas de inversión en IA cada vez dan conclusiones más disparatadas? A simple vista parece un problema del modelo, pero en realidad la raíz suele estar en los datos.
He probado a preguntar por algunos datos básicos y los resultados estaban especialmente fuera de lugar — tras verificar, descubrí que la información en sí era incorrecta. ¿Dónde está el problema? Según datos del sector de 2025, más del 37% de los errores generados por IA provienen directamente de datos de entrenamiento contaminados o no rastreables. No es una cifra pequeña.
Imagina que un modelo de inversión da razones ambiguas, un asistente de chat habla con confianza y sin sentido, y tú no sabes de dónde proviene la información. Quién la modificó, la calidad de los datos, todo es una caja negra. Es como comer comida chatarra de un pedido a domicilio: no puedes saber en qué parte del proceso surgió el problema.
La industria ahora está formando un consenso: la competencia en IA ya no se trata solo de tamaño de los parámetros del modelo, sino de si los datos son "limpios" y verificables. Justamente, esto representa una oportunidad.
Recientemente, observé las acciones de una de las principales ecosistemas de cadenas públicas, que están usando un conjunto de tecnologías para abordar este problema. Entre ellas, hay un protocolo dedicado a la verificación y almacenamiento de datos, con una idea muy interesante: no solo almacenar datos, sino actuar como una "notaría" de datos en la era de la IA, permitiendo que cada información sea rastreable y verificable. Este enfoque merece atención, porque esa es la verdadera vía para resolver la credibilidad de la IA.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
11 me gusta
Recompensa
11
5
Republicar
Compartir
Comentar
0/400
NftDeepBreather
· hace13h
La contaminación de datos debería haberse tomado en serio hace mucho tiempo, ¿cuántos errores se han cometido antes?
Ver originalesResponder0
SandwichDetector
· hace14h
La toxicidad de los datos es realmente un punto doloroso, ese porcentaje del 37% es bastante impactante.
Ver originalesResponder0
OnchainGossiper
· hace14h
La contaminación de datos es realmente increíble, mi asesor de IA me recomendó una moneda hace dos días y la razón era tan absurda que me quedé atónito.
Ver originalesResponder0
ApeWithNoFear
· hace15h
La caja negra de datos es realmente impresionante, creo en una tasa de error del 37%, todos los días siendo engañado por la IA...
Ver originalesResponder0
GhostAddressMiner
· hace15h
37% este número me hace poner un signo de interrogación... La proporción real de datos contaminados seguramente es aún mayor, pero nadie se atreve a decirlo públicamente
Estoy muy consciente del problema de la caja negra de los datos, se puede rastrear la huella en la cadena, pero el conjunto de entrenamiento de IA sigue siendo un misterio, qué ironía
Ese acuerdo de "oficina de notaría" suena bien, pero lo crucial es quién verifica a los validadores... esa es la verdadera cuestión
Recientemente he estado reflexionando sobre un fenómeno: ¿por qué los chatbots y las herramientas de inversión en IA cada vez dan conclusiones más disparatadas? A simple vista parece un problema del modelo, pero en realidad la raíz suele estar en los datos.
He probado a preguntar por algunos datos básicos y los resultados estaban especialmente fuera de lugar — tras verificar, descubrí que la información en sí era incorrecta. ¿Dónde está el problema? Según datos del sector de 2025, más del 37% de los errores generados por IA provienen directamente de datos de entrenamiento contaminados o no rastreables. No es una cifra pequeña.
Imagina que un modelo de inversión da razones ambiguas, un asistente de chat habla con confianza y sin sentido, y tú no sabes de dónde proviene la información. Quién la modificó, la calidad de los datos, todo es una caja negra. Es como comer comida chatarra de un pedido a domicilio: no puedes saber en qué parte del proceso surgió el problema.
La industria ahora está formando un consenso: la competencia en IA ya no se trata solo de tamaño de los parámetros del modelo, sino de si los datos son "limpios" y verificables. Justamente, esto representa una oportunidad.
Recientemente, observé las acciones de una de las principales ecosistemas de cadenas públicas, que están usando un conjunto de tecnologías para abordar este problema. Entre ellas, hay un protocolo dedicado a la verificación y almacenamiento de datos, con una idea muy interesante: no solo almacenar datos, sino actuar como una "notaría" de datos en la era de la IA, permitiendo que cada información sea rastreable y verificable. Este enfoque merece atención, porque esa es la verdadera vía para resolver la credibilidad de la IA.