29 มี.ค. เวลา 12:11 • วิทยาศาสตร์ & เทคโนโลยี

ตีแผ่เหตุผล ‼️ ทำไม OpenAI อาจจะต้องกลัว ChatRTX ของ NVIDIA!?

1. Chat with RTX (ChatRTX) รันบนการ์ดจอ RTX ของ NVIDIA แบบ Local ไม่ใช่ Cloud แบบ ChatGPT แปลว่าใครที่มีการ์ดจอ RTX บน PC/Laptop ซึ่ง VRAM สักอย่างน้อย 8 GB ก็สามารถติดตั้งใช้ได้เลย (ดาวน์โหลดผ่านเว็บไซต์ทางการของ NVIDIA โดยตรง ไฟล์ราว 30 GB)
2. ChatRTX เปิดให้เราเลือก pre-trained model ที่จะใช้คุยได้ ซึ่งเป็น open-source model นั่นคือใช้ฟรี ไม่ต้องเสีย Subscription เพื่อใช้ GPT-4 โดยตอนนี้มี Mistral 7B กับ Llama 2 13B ให้ใช้
3. ChatRTX ใช้ RAG เข้ามาชูจุดเด่น ถ้าสังเกตบน UI จะเห็นว่าเราสามารถเลือก Dataset บน PC ของเราเข้ามาให้ AI อ่านได้ด้วย ซึ่งจุดนี้ถือเป็น Solution ให้กับปัญหา 2 อย่างที่คนใช้ ChatGPT จะต้องเจอ
อย่างแรกคือเรื่อง Privacy ถ้าเกิดไฟล์นั้นเป็นข้อมูลที่ Sensitive หรือเป็นข้อมูลภายในบริษัทที่ไม่สามารถ Public ได้ เพราะเราต้องอัพโหลดไฟล์ขึ้น Cloud ของ OpenAI เพื่อให้ ChatGPT อ่านได้
อย่างที่สองสำคัญกว่า คือ ChatRTX สามารถลบขีดจำกัดเรื่องปริมาณ Data ที่จะป้อนให้ AI อ่านได้ ไม่เหมือนกับ ChatGPT ที่อัพโหลดไฟล์ได้ในปริมาณและขนาดที่จำกัด ChatRTX สามารถเข้าถึง Data บน PC ของเราได้พร้อมกันมากๆได้ ซึ่งปลอดภัยด้วย เพราะรันแบบ Local ไม่ต้องเชื่อม Internet
4. นอกจากเลือก Dataset ใน PC มาเสริม AI ให้ฉลาดตอบกว่าเดิมได้แล้ว ChatRTX ยังสามารถดูคลิปบน YouTube ได้ โดยเราสามารถแปะ URL ให้มันเป็น YouTube Playlist ได้ด้วย เพื่อให้มันดู VDO พร้อมกันหลายคลิป
สรุป ChatRTX ช่วยให้เราสามารถใช้ Feature ที่แต่เดิมต้องเสียเงินจ่ายให้ OpenAI ได้แบบฟรีๆ เพราะรัน Local บนการ์ดจอ RTX บน PC ของเราโดยไม่ต้องต่อ Internet เท่ากับว่าหมดปัญหาเรื่อง Data Privacy และไม่มีข้อจำกัดเรื่องปริมาณข้อมูล
โฆษณา