ไม่กี่วันที่ผ่านมา Pablinux คู่หูของฉัน เขาบอกพวกเขา วิธีการติดตั้งโมเดลปัญญาประดิษฐ์ทันสมัยแบบท้องถิ่น ในโพสต์นี้ ฉันจะแสดงรายการรุ่นที่ฉันคิดว่าดีกว่า DeepSeek และวิธีการติดตั้งและเรียกใช้บนคอมพิวเตอร์ของเรา
หากไม่นับความเห็นอกเห็นใจหรือความไม่ชอบทางการเมือง การเคลื่อนไหวของรัฐบาลจีนถือเป็นผลงานชิ้นเอกด้านการตลาดทางการทูตที่คู่ควรกับซุนวู ตรงกันข้ามกับสไตล์ "ช้างในภาชนะจีน" ของโดนัลด์ ทรัมป์ พวกเขาประกาศรูปแบบใหม่ที่เสนอคุณสมบัติเดียวกันกับ ChatGPT ฟรี และใช้ทรัพยากรน้อยกว่า เฉพาะพวกเราที่ติดตามหัวข้อนี้เท่านั้นที่รู้ว่า มีโมเดลโอเพนซอร์สอื่นๆ มากมายมาเป็นเวลานาน (บางโมเดลมาจากบริษัทในอเมริกาเหนือ เช่น Meta) และประสิทธิภาพของ DeepSeek นั้นเทียบได้กับ ChatGPT เพียง 5% ของการใช้งานทั่วไปที่สุดเท่านั้น
แบบจำลองภาษาขนาดใหญ่
ChatGPT, DeepSeek และอื่นๆ เรียกว่า Large Scale Language Models โดยพื้นฐานแล้ว พวกเขาอนุญาตให้ผู้ใช้โต้ตอบกับคอมพิวเตอร์ในภาษาที่คล้ายกับภาษาที่ใช้ในการสื่อสารกับมนุษย์คนอื่นๆ เพื่อให้บรรลุเป้าหมายนี้ พวกเขาได้รับการฝึกฝนด้วยข้อความและกฎจำนวนมาก ซึ่งช่วยให้พวกเขาสร้างข้อมูลใหม่จากสิ่งที่พวกเขามีอยู่แล้วได้
การใช้งานหลักคือการตอบคำถาม สรุปข้อความ แปลและสร้างเนื้อหา
โมเดลที่ดีกว่า DeepSeek และวิธีการติดตั้งในเครื่อง
เช่นเดียวกับ Pablinux เราจะใช้ Ollama นี่คือเครื่องมือที่ช่วยให้เราติดตั้ง ถอนการติดตั้ง และใช้โมเดลโอเพนซอร์สต่างๆ จากเทอร์มินัล Linux ได้ ในบางกรณีเบราว์เซอร์สามารถใช้เป็นอินเทอร์เฟซกราฟิกได้ แต่เราจะไม่ครอบคลุมถึงเรื่องนั้นในบทความนี้
หากต้องการให้ Ollama มอบประสบการณ์ผู้ใช้ที่เหมาะสม ควรมี GPU เฉพาะ.โดยเฉพาะในรุ่นที่มีพารามิเตอร์มากขึ้น อย่างไรก็ตาม รุ่นที่มีประสิทธิภาพน้อยกว่าสามารถใช้กับ Raspberry Pi ได้ และเมื่อฉันทดสอบโมเดลที่มีพารามิเตอร์ 7 พันล้านตัวบนคอมพิวเตอร์ที่มีความจุ 6 กิกะไบต์และไม่มี GPU เฉพาะ คอมพิวเตอร์ก็ทำงานได้โดยไม่มีสะดุดเลย สิ่งเดียวกันนี้ไม่ได้เกิดขึ้นกับหนึ่งใน 13 พันล้านคน
พารามิเตอร์คือกฎที่แบบจำลองใช้ในการสร้างความสัมพันธ์และสร้างรูปแบบระหว่างข้อมูล ยิ่งมีพารามิเตอร์และข้อมูลมากขึ้น โมเดลก็จะยิ่งมีประสิทธิภาพมากขึ้น โดยโมเดลที่มีพารามิเตอร์น้อยกว่าจะพูดภาษาสเปนได้เหมือนทาร์ซาน
เราสามารถติดตั้ง Ollama ด้วยคำสั่ง
sudo apt install curl
curl -fsSL https://ollama.com/install.sh | sh
เราสามารถติดตั้งโมเดลได้ด้วยคำสั่ง:
ollama pull nombre_del modelo
และรันมันด้วย:
ollama run nombre_del_modelo
เราถอนการติดตั้งโดยใช้:
ollama rm nombre_del_modelo
เราสามารถดูโมเดลที่ติดตั้งได้โดยพิมพ์:
ollama list
ต่อไปนี้เป็นรายการย่อของรุ่นที่ฉันพบว่าน่าสนใจที่สุด: สามารถดูรายการรุ่นทั้งหมดที่มีจำหน่ายได้ที่นี่ ที่นี่:
ลามะ2-ไม่เซ็นเซอร์
Llama เป็นโมเดลวัตถุประสงค์ทั่วไปที่สร้างขึ้นโดย Meta ในเวอร์ชันนี้ ข้อจำกัดทั้งหมดที่แนะนำโดยนักพัฒนาของโครงการดั้งเดิมด้วยเหตุผลทางกฎหมายหรือการเมืองจะถูกลบออกไป- มีสองเวอร์ชัน คือเวอร์ชันเบาที่รองรับได้ 8GB และเวอร์ชันเต็มที่รองรับได้ 64GB สามารถใช้ตอบคำถาม เขียนข้อความ หรือเขียนโค้ดได้
ติดตั้งด้วย:
ollama pull llama2-uncensored
และมันทำงานด้วย:
ollama run llama2-uncensored
โค๊ดเจมม่า
CodeGemma เป็นกลุ่มเทมเพลตน้ำหนักเบาแต่ทรงพลังที่ช่วยให้คุณสามารถทำงานการเขียนโปรแกรมที่หลากหลาย วิธีการทำให้โค้ดเสร็จสมบูรณ์หรือเขียนใหม่ตั้งแต่ต้น เข้าใจภาษาธรรมชาติ สามารถปฏิบัติตามคำสั่ง และใช้เหตุผลทางคณิตศาสตร์ได้
มีให้เลือก 3 รุ่น:
- สั่ง: มันแปลงภาษาธรรมชาติให้เป็นโค้ดและสามารถปฏิบัติตามคำสั่งได้:
- รหัส: ทำให้เสร็จสมบูรณ์และสร้างโค้ดจากส่วนต่างๆ ของโค้ดที่มีอยู่
- 2b: งานเขียนโค้ดให้เสร็จเร็วขึ้น
ทินิลลามะ
ตามที่ชื่อระบุไว้ มันเป็นเวอร์ชันย่อส่วนของรุ่น Meta ดั้งเดิม- ดังนั้นมันอาจจะไม่ได้ผลลัพธ์ที่ดีเท่าไร แต่ถ้าคุณอยากเห็นว่าโมเดลปัญญาประดิษฐ์ทำงานบนฮาร์ดแวร์ทั่วไปอย่างไร ก็คุ้มค่าที่จะลองดู มีพารามิเตอร์เพียง 1100 พันล้านรายการเท่านั้น
การใช้โมเดลในพื้นที่มีข้อดีในเรื่องความเป็นส่วนตัวและการเข้าถึงเวอร์ชันที่ไม่มีการเซ็นเซอร์และไม่มีอคติ ซึ่งในบางกรณีอาจจบลงด้วยความไร้สาระ AI ของ Microsoft ปฏิเสธที่จะสร้างภาพดัชชุนด์ให้ฉันเพราะถือว่าคำว่า "สุนัขตัวเมีย" เป็นคำที่ไม่เหมาะสม ข้อเสียที่ใหญ่ที่สุดคือข้อกำหนดด้านฮาร์ดแวร์ จะเป็นเรื่องของการทดลองใช้โมเดลต่างๆ และค้นหาโมเดลที่เหมาะกับความต้องการของคุณและสามารถใช้งานกับอุปกรณ์ที่คุณมีได้