Resultados de la búsqueda para "SFT"
04:28
🔥Estas son las siguientes actividades en curso: $UNIO, $SFT, $X, $CYCON, $CYRUS, $CROS ✅La minería de $UNIO es compatible con $UNIO y $USDT, y la piscina de minería $UNIO tiene una tasa de rendimiento anual de hasta 1898,32%; ✅La minería de $SFT es compatible con las piscinas de $SFT y $ETH, con un rendimiento anual de hasta el 518.2% en la piscina de $SFT; ✅ La tasa de rendimiento anualizada de la minería de $X es de hasta 508.06%; ✅La minería de $CYCON es compatible con $CYCON y $GTPool de minería, la tasa de rendimiento anual de $CYCONPool de minería puede alcanzar hasta 596.86%; ✅$CYRUS二期Minería, Tasa de porcentaje anual高达282.41%; ✅$CROSMinería支持$CROS和$BTCPool de minería,$CROSPool de minería Tasa de porcentaje anual高达576.19%; 💰¡Minería inmediata!: https://www.gate.io/zh/startup-mining
X2.24%
  • 5
  • 6
08:30
En la tarde del 12 de enero de 2024, se lanzó oficialmente el primer Foro de Innovación de SFT. Durante la reunión, los fundadores de zCloak Network y Solv Protocol anunciaron conjuntamente que se han convertido oficialmente en socios estratégicos. En noviembre de 2023, DESFT, un proyecto diseñado e incubado conjuntamente por zCloak y Solv, fue visto en el Festival FinTech de Singapur, que cuenta con el apoyo conjunto de la Autoridad Monetaria de Singapur (MAS) y el Banco Central de Ghana, que tiene como objetivo ayudar a las micro, pequeñas y medianas empresas (mipymes) de las regiones en desarrollo a participar en el comercio internacional a través de la identidad digital empresarial, las credenciales digitales y la tecnología ERC3525, y obtener un servicio financiero justo, preciso y asequible en las actividades transfronterizas de la economía digital. A través de la cooperación profunda en el proyecto DESFT, ambas partes acordaron que la prueba de conocimiento cero de zCloak, la tecnología de identidad digital y el estándar ERC-3525 del protocolo Solv tienen una muy buena complementariedad, una fuerte combinación en el desarrollo de aplicaciones prácticas y un amplio espacio de innovación. Con el fin de explorar mejor el camino de la tokenización de activos en el mundo real, las dos partes establecieron formalmente una asociación estratégica comercial para expandir conjuntamente futuros escenarios de cooperación técnica y aterrizaje comercial.
03:59
Según el informe de TechWeb del 19 de septiembre, el sistema de evaluación nacional autorizado Flag_ (Libra) anunció los resultados de la evaluación de los últimos modelos grandes en la lista de septiembre. Basado en el último conjunto de datos de evaluación subjetiva de CLCC v2.0, la lista de septiembre de Flag_ (Libra) se centra en evaluar 7 modelos de diálogo de código abierto que se han vuelto populares recientemente. A juzgar por los resultados generales, Baichuan2-13 b-chat, Qwen-7 b-chat y Baichuan2-7 b-chat se encuentran entre los mejores, con tasas de precisión superiores al 65%. En la lista de modelos base, los resultados de la evaluación objetiva de Baichuan 2, Qwen, InternLM y Aquila superaron a los modelos Llama y Llama2 del mismo nivel de parámetro. En la lista de modelos SFT, Baichuan 2-13 B-chat, YuLan-Chat-2-13 B y AquilaChat-7 B se encuentran entre los tres primeros. En ambas listas de evaluación objetiva, Baichuan 2 mostró un rendimiento excelente y la prueba del modelo básico superó a Llama 2 tanto en el campo chino como en el inglés. Se informa que Flag_ (Libra) es un gran sistema de evaluación de modelos y una plataforma abierta lanzado por el Instituto de Investigación de Inteligencia Artificial Zhiyuan de Beijing. Su objetivo es establecer puntos de referencia, métodos y conjuntos de herramientas de evaluación científicos, justos y abiertos para ayudar a los investigadores a evaluar de manera integral los modelos básicos y Rendimiento de algoritmos de entrenamiento. Flag_ El gran sistema de evaluación del modelo de lenguaje incluye actualmente 6 tareas de evaluación principales, casi 30 conjuntos de datos de evaluación y más de 100.000 preguntas de evaluación.
07:30

Shizhi AI: lanzamiento oficial de Wisemodel, plataforma comunitaria de código abierto de IA neutral y abierta

El equipo de Wise AI anunció el lanzamiento oficial de la plataforma comunitaria de código abierto de IA neutral y abierta (wisemodel.cn). Según los informes, el objetivo de la plataforma es recopilar modelos y conjuntos de datos de IA de código abierto de uso común y otros recursos en el país y en el extranjero para construir una plataforma de innovación de código abierto de IA neutral y abierta. Actualmente, Tsinghua/Zhipu chatglm2-6 B, Stable Diffusion V1.5, alphafold2, Seamless m4t large y otros modelos, así como shareGPT, ultrachat, moss-sft y otros conjuntos de datos están en línea.
Más
12:23
Según el informe de 36 Krypton del 6 de septiembre, el equipo de Shizhi AI anunció que se lanzó oficialmente la plataforma comunitaria de código abierto de AI neutral y abierta (wisemodel.cn). Según los informes, el objetivo de la plataforma es recopilar recursos como modelos de IA de código abierto y conjuntos de datos de uso común en el país y en el extranjero, y construir una plataforma de innovación de código abierto de IA neutral y abierta. En la actualidad, se han lanzado modelos como Tsinghua/Zhipu chatglm2-6 B, Stable Diffusion V1.5, alphafold2, Seamless m4 t large y conjuntos de datos como shareGPT, ultrachat y moss-sft.
07:58
Según un informe de Xinzhiyuan del 5 de septiembre, la última investigación del equipo de Google propone utilizar modelos grandes para reemplazar a los humanos en la anotación de preferencias, que es el aprendizaje reforzado por retroalimentación de IA (RLAIF). Se descubrió que RLAIF puede producir mejoras comparables a RLHF con una tasa de ganancia del 50% sin depender de anotadores humanos. Al mismo tiempo, la investigación de Google demostró una vez más que RLAIF y RLHF tienen una tasa de ganancia de más del 70% en comparación con el ajuste fino supervisado (SFT).
03:08
Según un informe de Heart of the Machine del 1 de septiembre, el Laboratorio de Computación Social e Inteligencia de Datos de la Universidad de Fudan (FudanDISC) lanzó un asistente personal médico y de salud chino: DISC-MedLLM. En las evaluaciones de consultas médicas y de salud de ronda única de preguntas y respuestas y de diálogo de múltiples rondas, el rendimiento del modelo muestra ventajas obvias en comparación con los grandes modelos de diálogo médico existentes. Además, el grupo de investigación también publicó un conjunto de datos de ajuste fino supervisado (SFT) de alta calidad de 470.000 - DISC-Med-SFT, y los parámetros del modelo y los informes técnicos también fueron de código abierto.
05:33
Según el corazón de la máquina, dos modelos grandes de Stability AI y CarperAI lab: FreeWilly 1 y FreeWilly 2, superaron al Llama-2-70b-hf lanzado por Meta hace tres días el día 22 y alcanzaron con éxito la cima de la clasificación Open LLM de HuggingFace. FreeWilly 2 también superó a ChatGPT (GPT-3.5) en muchos puntos de referencia, convirtiéndose en el primer modelo grande de código abierto que realmente puede competir con GPT-3.5, algo que Llama 2 no ha hecho. FreeWilly 1 se basa en el modelo base original LLaMA 65B y cuenta con un ajuste fino (SFT) cuidadosamente supervisado utilizando un nuevo conjunto de datos sintéticos en el formato Alpaca estándar. FreeWilly2 se basa en el último modelo básico LLaMA 2 70B.
05:43
Según el corazón de la máquina, dos grandes modelos de Stability AI y CarperAI lab: FreeWilly 1 y FreeWilly 2 superaron al Llama-2-70 b-hf lanzado por Meta hace tres días y alcanzaron con éxito la cima de la clasificación Open LLM de HuggingFace. Lo que es más sorprendente es que FreeWilly 2 también superó a ChatGPT (GPT-3.5) en muchos puntos de referencia, convirtiéndose en el primer modelo grande de código abierto que realmente puede competir con GPT-3.5, algo que Llama 2 no hizo. FreeWilly 1 se basa en el modelo base original LLaMA 65 B y se ha realizado un ajuste fino (SFT) cuidadosamente supervisado utilizando nuevos conjuntos de datos sintéticos en el formato Alpaca estándar. FreeWilly2 se basa en el último modelo base LLaMA 2 70 B.
14:48
Odaily Planet Daily News Meta lanzó el modelo de lenguaje multimodal CM3leon. CM3leon es un modelo de lenguaje multimodal de recuperación mejorada, basado en tokens y solo decodificador capaz de generar y completar texto e imágenes. CM3leon es el primer modelo multimodal entrenado usando una receta adaptada de un modelo de lenguaje de texto simple, que consta de una etapa de preentrenamiento de aumento de recuperación a gran escala y una segunda etapa de ajuste fino supervisado (SFT) de tareas múltiples. Como modelo general, puede realizar la generación de texto a imagen y de imagen a texto, lo que permite la introducción de métodos de decodificación contrastivos independientes que producen resultados de alta calidad.
Cargar más
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)