บริษัทเบราว์เซอร์ชั้นนำ Opera กล่าวว่ากำลังเพิ่มการสนับสนุนทดลองสำหรับ 150 LLM (โมเดลภาษาขนาดใหญ่) ที่มาจากประมาณ 50 ครอบครัวของโมเดลลงในเบราว์เซอร์ Opera One ในสตรีมสำหรับนักพัฒนา.
ตามรายงานของ Opera นี่เป็นครั้งแรกที่ LLMs ท้องถิ่นสามารถเข้าถึงและจัดการได้อย่างง่ายดายจากเบราว์เซอร์หลักผ่านฟีเจอร์ที่สร้างขึ้นมาในตัว โมเดล AI ท้องถิ่นเป็นการเพิ่มเติมที่ให้บริการฟรีสำหรับบริการ Aria AI ออนไลน์ของ Opera โมเดล LLMs ท้องถิ่นที่รองรับ ได้แก่:
! * Llama จาก Meta
วิคูน่า
Gemma จาก Google
Mixtral จาก Mistral AI
“การนำเสนอ LLMs ท้องถิ่นในลักษณะนี้ช่วยให้ Opera เริ่มสำรวจวิธีการสร้างประสบการณ์และความรู้ในพื้นที่ AI ท้องถิ่นที่กำลังเติบโตอย่างรวดเร็ว” กล่าวโดย Krystian Kolondra, EVP เบราว์เซอร์และเกมที่ Opera.
การใช้โมเดลภาษาขนาดใหญ่ในท้องถิ่นหมายความว่าข้อมูลของผู้ใช้จะถูกเก็บไว้ในอุปกรณ์ของตนเอง ทำให้พวกเขาสามารถใช้ AI ที่สร้างสรรค์โดยไม่จำเป็นต้องส่งข้อมูลไปยังเซิร์ฟเวอร์ โอเปร่ากล่าว
หนึ่งในปัญหาที่เกิดขึ้นในวาทกรรมปัญญาประดิษฐ์คือความเป็นส่วนตัวของข้อมูล ซึ่งได้เห็นโครงการ AI แบบกระจายศูนย์ชั้นนำสามโครงการ ได้แก่ Fetch.ai, SingularityNET (SNET) และ Ocean Protocol ตัดสินใจที่จะรวมตัวกันเพื่อสร้างระบบนิเวศ AI แบบกระจายศูนย์.
“ตั้งแต่วันนี้ ผู้ใช้ Opera One Developer มีโอกาสเลือกโมเดลที่ต้องการใช้ในการประมวลผลข้อมูลของตน เพื่อทดสอบโมเดลเหล่านี้ พวกเขาต้องอัปเกรดไปยังเวอร์ชันใหม่ล่าสุดของ Opera Developer และปฏิบัติตามขั้นตอนหลายประการเพื่อเปิดใช้งานฟีเจอร์ใหม่” Opera กล่าว.
“การเลือก LLM ท้องถิ่นจะทำการดาวน์โหลดไปยังเครื่องของผู้ใช้ LLM ท้องถิ่นซึ่งโดยทั่วไปต้องการพื้นที่จัดเก็บภายในเครื่อง 2-10 GB ต่อแบบจะแทนที่ Aria, AI เบราว์เซอร์พื้นเมืองของ Opera จนกว่าผู้ใช้จะเริ่มแชทใหม่กับ AI หรือสลับกลับไปใช้ Aria.”
ปัญญาประดิษฐ์ | เบราว์เซอร์โอเปรารวมโมเดล AI ชั้นนำสำหรับการดาวน์โหลดในพื้นที่และการใช้งานแบบออฟไลน์
บริษัทเบราว์เซอร์ชั้นนำ Opera กล่าวว่ากำลังเพิ่มการสนับสนุนทดลองสำหรับ 150 LLM (โมเดลภาษาขนาดใหญ่) ที่มาจากประมาณ 50 ครอบครัวของโมเดลลงในเบราว์เซอร์ Opera One ในสตรีมสำหรับนักพัฒนา.
LLMs เช่น GPT (Generative Pre-trained Transformer) โมเดลที่พัฒนาโดย OpenAI เป็นระบบปัญญาประดิษฐ์ขั้นสูงที่ได้รับการฝึกฝนจากข้อมูลข้อความจำนวนมากเพื่อทำความเข้าใจและสร้างข้อความที่คล้ายคลึงกับมนุษย์ พวกเขาใช้สำหรับงานประมวลผลภาษาธรรมชาติหลายประเภท รวมถึงการสร้างข้อความ การแปล และการสรุป.
ตามรายงานของ Opera นี่เป็นครั้งแรกที่ LLMs ท้องถิ่นสามารถเข้าถึงและจัดการได้อย่างง่ายดายจากเบราว์เซอร์หลักผ่านฟีเจอร์ที่สร้างขึ้นมาในตัว โมเดล AI ท้องถิ่นเป็นการเพิ่มเติมที่ให้บริการฟรีสำหรับบริการ Aria AI ออนไลน์ของ Opera โมเดล LLMs ท้องถิ่นที่รองรับ ได้แก่:
! * Llama จาก Meta
“การนำเสนอ LLMs ท้องถิ่นในลักษณะนี้ช่วยให้ Opera เริ่มสำรวจวิธีการสร้างประสบการณ์และความรู้ในพื้นที่ AI ท้องถิ่นที่กำลังเติบโตอย่างรวดเร็ว” กล่าวโดย Krystian Kolondra, EVP เบราว์เซอร์และเกมที่ Opera.
การใช้โมเดลภาษาขนาดใหญ่ในท้องถิ่นหมายความว่าข้อมูลของผู้ใช้จะถูกเก็บไว้ในอุปกรณ์ของตนเอง ทำให้พวกเขาสามารถใช้ AI ที่สร้างสรรค์โดยไม่จำเป็นต้องส่งข้อมูลไปยังเซิร์ฟเวอร์ โอเปร่ากล่าว
หนึ่งในปัญหาที่เกิดขึ้นในวาทกรรมปัญญาประดิษฐ์คือความเป็นส่วนตัวของข้อมูล ซึ่งได้เห็นโครงการ AI แบบกระจายศูนย์ชั้นนำสามโครงการ ได้แก่ Fetch.ai, SingularityNET (SNET) และ Ocean Protocol ตัดสินใจที่จะรวมตัวกันเพื่อสร้างระบบนิเวศ AI แบบกระจายศูนย์.
“ตั้งแต่วันนี้ ผู้ใช้ Opera One Developer มีโอกาสเลือกโมเดลที่ต้องการใช้ในการประมวลผลข้อมูลของตน เพื่อทดสอบโมเดลเหล่านี้ พวกเขาต้องอัปเกรดไปยังเวอร์ชันใหม่ล่าสุดของ Opera Developer และปฏิบัติตามขั้นตอนหลายประการเพื่อเปิดใช้งานฟีเจอร์ใหม่” Opera กล่าว.
“การเลือก LLM ท้องถิ่นจะทำการดาวน์โหลดไปยังเครื่องของผู้ใช้ LLM ท้องถิ่นซึ่งโดยทั่วไปต้องการพื้นที่จัดเก็บภายในเครื่อง 2-10 GB ต่อแบบจะแทนที่ Aria, AI เบราว์เซอร์พื้นเมืองของ Opera จนกว่าผู้ใช้จะเริ่มแชทใหม่กับ AI หรือสลับกลับไปใช้ Aria.”
ติดตามเราบน Twitter เพื่อรับโพสต์และอัปเดตล่าสุด