สล็อต pg ฝาก 10 รับ 100246slot

ดูบอลสดวันนี pptv ออนไลน์ มือถือ สด วันนี

slot angel88ยง ปลา แจก เครดต ฟรไมต้อง ฝาก ถอน ได2024

China News Service, ปักกิ่ง, วันที่ 20 มิถุนายน (ผู้สื่อข่าวซัน ซีฟา) โมเดลภาษาขนาดใหญ่ (LLM) ที่อิงตามปัญญาประดิษฐ์ (AI) อาจไม่แม่นยำและเชื่อถือได้เสมอไปในการตอบคำถาม และบางครั้งก็ให้ข้อมูลไร้สาระในลักษณะ "ภาพลวงตา" อย่างชาญฉลาดอย่างยิ่ง คำตอบที่ประดิษฐ์ขึ้นแบบสุ่มทำให้ยากต่อการบอกได้ว่าคำตอบเหล่านั้นเป็นจริงหรือเท็จ วิธีตรวจจับสิ่งนี้ดึงดูดความสนใจอย่างกว้างขวางได้อย่างไร

บทความวิจัยด้านปัญญาประดิษฐ์ที่ตีพิมพ์เมื่อเร็วๆ นี้ในวารสารวิชาการที่มีชื่อเสียงระดับนานาชาติ "Nature" ระบุว่านักวิจัยได้พัฒนาวิธีการที่สามารถตรวจจับ "ภาพหลอน" ของแบบจำลองภาษาขนาดใหญ่ วิธีการนี้ใช้ "การต่อสู้ด้วยไฟ" fire" วิธีการ ความสามารถในการวัดความไม่แน่นอนในความหมายของการตอบสนองที่สร้างขึ้นอาจถูกนำมาใช้เพื่อปรับปรุงความน่าเชื่อถือของเอาต์พุตแบบจำลองภาษาขนาดใหญ่

บทความนี้แนะนำว่าโมเดลภาษาขนาดใหญ่ (เช่น ChatGPT และ Gemini) เป็นระบบปัญญาประดิษฐ์ที่สามารถอ่านและสร้างภาษามนุษย์ตามธรรมชาติได้ อย่างไรก็ตาม ระบบดังกล่าวสามารถสร้าง “ภาพหลอน” และสร้างเนื้อหาที่ไม่ถูกต้องหรือไร้ความหมายได้อย่างง่ายดาย การตรวจจับขอบเขตที่แบบจำลองภาษาขนาดใหญ่ต้องทนทุกข์ทรมานจาก "อาการประสาทหลอน" นั้นเป็นเรื่องยากเนื่องจากคำตอบอาจถูกนำเสนอในลักษณะที่ทำให้ดูเหมือนน่าเชื่อถือ

ในการศึกษานี้ Sebastian Farquhar ผู้เขียนคนแรกและผู้เขียนบทความที่เกี่ยวข้องของมหาวิทยาลัยออกซ์ฟอร์ดในสหราชอาณาจักร ได้ทำงานร่วมกับเพื่อนร่วมงานเพื่อพยายามหาปริมาณว่าโมเดลภาษาขนาดใหญ่สร้างขึ้นได้มากเพียงใด " ภาพลวงตา" เพื่อกำหนดจำนวนเนื้อหาที่ถูกสร้างขึ้น จงยึดมั่นในเนื้อหาต้นฉบับที่ให้ไว้ วิธีการของพวกเขาตรวจจับ "การประดิษฐ์" ซึ่งเป็นหมวดหมู่ย่อยของ "ภาพหลอน" ซึ่งหมายถึงเนื้อหาที่ไม่ถูกต้องและเป็นไปตามอำเภอใจ ซึ่งมักเกิดขึ้นเมื่อแบบจำลองภาษาขนาดใหญ่ขาดความรู้บางประเภท วิธีการที่พวกเขาพัฒนาขึ้นเพื่อ "ประกอบ" คำถามคำนึงถึงความแตกต่างของภาษาและวิธีแสดงคำตอบในรูปแบบต่างๆ และมีความหมายที่แตกต่างกัน การวิจัยแสดงให้เห็นว่าวิธีการนี้สามารถระบุเนื้อหาที่ "สร้างขึ้น" ในโปรไฟล์ที่สร้างโดยแบบจำลองภาษาขนาดใหญ่ รวมถึงการตอบกลับในหัวข้อต่างๆ เช่น เกร็ดความรู้ ความรู้ทั่วไป และวิทยาศาสตร์เพื่อชีวิต

"Nature" เผยแพร่บทความ "ข่าวสารและมุมมอง" โดยผู้เชี่ยวชาญในเวลาเดียวกัน โดยชี้ให้เห็นว่างานการตรวจจับของงานวิจัยล่าสุดเสร็จสิ้นด้วยแบบจำลองภาษาขนาดใหญ่ และได้รับการประเมินโดยแบบจำลองภาษาขนาดใหญ่อื่น ซึ่งเทียบเท่ากับ “การดับไฟด้วยไฟ” แม้ว่าการใช้โมเดลภาษาขนาดใหญ่เพื่อประเมินแนวทางที่ใช้โมเดลภาษาขนาดใหญ่อาจดูเป็นวงกลมและอาจมีอคติ แต่แนวทางของพวกเขาหวังว่าจะช่วยให้ผู้ใช้เข้าใจสถานการณ์ที่การตอบสนองโดยใช้โมเดลภาษาขนาดใหญ่ต้องใช้ความระมัดระวัง ซึ่งหมายความว่า สิ่งนี้สามารถปรับปรุงความมั่นใจของ โมเดลภาษาขนาดใหญ่ในสถานการณ์การใช้งานที่หลากหลาย (จบ) [บรรณาธิการ: กวนนา]

เกมส์ ยง ปลา ไดเงน งายฝาก นอย รับ 100 วอ เลท

หวย lottovip pantipหวย เฮีย พูน วัน นี้