Blockdit Logo
Blockdit Logo (Mobile)
สำรวจ
ลงทุน
คำถาม
เข้าสู่ระบบ
มีบัญชีอยู่แล้ว?
เข้าสู่ระบบ
หรือ
ลงทะเบียน
Mr.Sci
•
ติดตาม
23 ธ.ค. 2019 เวลา 08:09 • วิทยาศาสตร์ & เทคโนโลยี
PaperRobot for Draft Generation of Scientific Ideas :จะเกิดอะไรขึ้นเมื่อ AI สามารถเขียนบทความจนหลอกผู้เชี่ยวชาญได้แล้ว!!
เราทุกคนเคยคิดมั้ยครับว่าหากเครื่องจักรหรือคอมพิวเตอร์สามารถอ่านและเขียนงานวิจัยหรือบทความได้เอง มันจะดีแค่ไหน เพราะนอกจากพวกมันจะทำงานแบบไม่หลับไม่นอนแล้วยังเขียนและตีพิมพ์งานได้ตลอดเวลาด้วยแบบนี้มนุษย์เราคงสบายและพัฒนาองค์ความรู้ต่อไปแบบไม่มีที่สิ้นสุดแน่นอนหลายปีก่อนเราทุกคนต่างคิดว่านี้อาจเป็นเรื่องแต่งในนิยาย Sci-fi สักเรื่อง แต่เชื่อมั้ยครับว่าทุกวันนี้มันเกิดขึ้นจริงแล้ว ด้วยเทคโนโลยีที่เรียกว่า "Machine Learning" หรือการเรียนรู้ของจักรกลนั่นเอง
มาเข้าประเด็นกันครับ วันนี้ผมได้อ่านเปเปอร์วิจัยฉบับหนึ่งมา ซึ่งบอกได้เลยว่ามันทั้งน่าทึ่งและขนลุกไปพร้อมๆกัน โดย Qingyun Wang
et.al
, 2019 จาก Rensselaer Polytechnic Institute ได้ตีพิมพ์รายงานการพัฒนา PaperRobot เป็น AI ที่ใช้หลักการเข้ารหัส-ถอดรหัส (Encoder-Decoder) ที่สามารถเขียน Paper งานวิชาการใหม่ๆ ในวงการแพทย์และเคมีได้จากการใช้ Machine Learning เพื่อพัฒนาอัลกอริทึมของปัญญาประดิษฐ์ที่สามารถอ่านเปเปอร์ที่เขียนโดยมนุษย์แล้วสามารถเขียนเปเปอร์จากองค์ความรู้ใหม่ๆที่ขาดหายที่มันเรียนรู้จากงานเขียนของคนขึ้นมาได้ ทีนี้เรามาดูกันว่ามันทำงานยังงัยกันครับ โดยมันมีขั้นตอนการทำงาน 3 ขั้นดังนี้
แสดงสถาปัตยกรรมโดยภาพรวมของระบบ PaperRobot ที่พัฒนาโดย Qingyun Wang et.al, 2019
(1) อัลกอริทึมจะอ่านบทความวิชาการเป็นจำนวนมหาศาลแล้ว บันทึกเป็นข้อมูลโครงสร้างกราฟ หรือ Knowledge Graphs (KGs) ก่อนอื่นเราต้องเข้าใจก่อนนะครับว่า KGs คืออะไรโดยสรุปแล้ว KGs ก็คือความสัมพันธ์ของข้อมูลในรูปแบบ (A, rel, B) โดยที่ค่า A และ B อาจจะหมายถึง Concept, Fact, information หรือ Knowledge อะไรสักอย่างก็ได้ที่มนุษย์เราจัดกลุ่มความสัมพันธ์กัน ซึ่งในที่นี้เจ้า Concept ที่ว่าคือองค์ความรู้ที่ได้จากงานวิจัยหนึ่งๆ โดยงานวิจัยฉบับนี้ผู้วิจัยจะยกตัวอย่าง Concept เป็นโปรตีนที่เกี่ยวข้องกับยีนก่อโรคบางชนิดในมนุษย์ โดยระบบอัลกอริทึมจะอ่านเปเปอร์ที่เขียนโดยมนุษย์เพื่อย่อเนื้อหา (Encoder) ของข้อมูลงานวิจัยออกมาเป็นข้อมูลโครงสร้างกราฟต่างๆหลายๆ แบบเพื่อหาความสัมพันธ์ในรูปจุดต่อจุด (Node-to-Node relationship)
งานวิจัยนี้จะใช้อัลกอริทึมเพื่อสร้าง Knowledge Graphs ของข้อมูลที่มีอยู่
(2) จากนั้นระบบอัลกอริทึมจะพยายามเดาความสัมพันธ์ใหม่ จาก Knowledge Graphs โดยการสร้าง concept ที่สมบูรณ์หนึ่งอันขึ้นมาเป็น Concept Node ตั้งต้นจากนั้นระบบอัลกอริทึมจะพยายามเลียนแบบความสัมพันธ์ที่มันพบจากฐานข้อมูลที่มีอยู่เพื่อสร้าง Concept Node อีกอันนึง ขึ้นมาใหม่ (จากตัวอย่างในรูปที่ 3 ของเปเปอร์คือ concept ที่สมบูรณ์หนึ่งอัน โดยระบบพบว่า Calcium กับ Zinc เป็นคู่ Concept Node ที่ใกล้เคียงกันมันจึงสร้าง Concept Node ใหม่ที่ทำนายว่า Calcium น่าจะส่งผลต่อ CD14 และ neuropillin 2 ได้เหมือนที่ Zinc ทำได้จาก KGs ที่มีอยู่จากงานก่อนหน้านี้)
ภาพรวมของระบบ PaperRobot ในงานวิจัยนี้คือการย่อข้อมูลจากงานวิจัยที่เขียนโดยมนุษย์เป็นข้อมูลโครงสร้างกราฟ (Knowledge Graphs) เพื่อหาความสัมพันธ์ใหม่ๆนำไปถอดความแล้วเขียนเปเปอร์ขึ้นมาใหม่
(3) ระบบอัลกอริทึมจะเขียนบทความวิชาการใหม่จากความสัมพันธ์ที่ทำนายขึ้นมาในข้อ (2) โดยเมื่อมันได้ Concept Node แล้วจะใช้กระบวนการ Encoder-Decode เพื่อย่อข้อมูลโครงสร้างกราฟและย่อข้อความรอบๆเนื้อหาที่มีเนื้อหาสัมพันธ์กันที่สุดกับ concept ที่สมบูรณ์หนึ่งอันที่เลือกไว้ แล้วเขียน Title ก่อนจากนั้นเอา Title ไปเขียน Abstract หลังจากนั้นไปเขียนต่อเป็น Conclusion แล้วก็นำเอา Conclusion ที่ได้ไปเขียนต่อเป็น Future Works ในท้ายที่สุด เนื้อความบทคัดย่อที่ระบบอัลกอริทึมเขียนจะถูกนำมาทดสอบด้วย Turing Test เทียบกับงานที่นักวิจัย (ที่เป็นมนุษย์) เขียนเองเพื่อทดสอบว่าผลงานอันไหนเป็นของมนุษย์จริงๆ และอันไหนเป็นงานเขียนของ AI กับกลุ่มตัวอย่างที่เป็นมนุษย์ให้แยกแยะงานทั้งสองแบบ
การทดสอบ Turing Test ปรากฎว่าผู้เชี่ยวชาญเฉพาะด้าน (Domain Expert) กลับไม่สามารถแยกแยะความแตกต่างระหว่างงานเขียนจาก AI หรือมนุษย์มากถึง 75% เมื่อเทียบกับกลุ่มที่ไม่ได้เป็นผู้เชี่ยวชาญเฉพาะด้าน (Non-Domain Expert) ที่ไม่สามารถแยกได้เพียง 34.7% เท่านั้น
ผลการทดสอบปรากฏว่าจากการทดสอบในผู้เชี่ยวชาญเฉพาะกลุ่มงาน (Domain Expert) กลับไม่สามารถแยก Abstract จาก AI ได้ถึง 75% (30 บทความ จาก 40 บทความ) ในขณะที่กลุ่มที่ไม่ได้เป็นผู้เชี่ยวชาญเฉพาะด้าน (Non-Domain Expert) ไม่สามารถแยก Abstract ได้เพียงแค่ 34.7% เท่านั้น นั่นหมายความว่า AI สามารถหลอกผู้เชี่ยวชาญได้อย่างแนบเนียนมากกว่าคนปกติซะอีก
เบื้องหลังความฉลาดล้ำของ AI ที่เขียนบทความวิชาการเหล่านี้คือโครงข่ายของ hidden layers neural network ที่ทำงานเลียนแบบโครงข่ายระบบประสาทของมนุษย์ด้วยระบบอัลกอริทึม
งานวิจัยนี้ถึงแม้จะเป็นการทดลองในระดับเล็กๆเพื่อพัฒนา AI ที่เขียนบทความเฉพาะด้านในวงแคบๆ เท่านั้น แต่มันก็แสดงให้เห็นถึงศักยภาพที่ยิ่งใหญ่ของ AI ที่จะปฏิวัติวงการนักเขียนได้อย่างน่าทึ่งและน่ากลัวในเวลาเดียวกัน เราคงหลีกเลี่ยงที่จะเผชิญหน้ากับมันในอนาคตไม่ได้ เพราะพวกมันเรียนรู้ได้ไวและทำงานได้ดีกว่ามนุษย์มากในระยะเวลาเท่ากัน คุณหล่ะครับพร้อมรับมือหรือยังกับยุคแห่ง Machine Learning !!!!
อ้างอิง
[1]
https://towardsdatascience.com/genetic-algorithm-implementation-in-python-5ab67bb124a6
[2]
https://iapp.co.th/en/review-paper-ai-%e0%b9%80%e0%b8%82%e0%b8%b5%e0%b8%a2%e0%b8%99%e0%b8%9a%e0%b8%97%e0%b8%84%e0%b8%a7%e0%b8%b2%e0%b8%a1%e0%b8%a7%e0%b8%b4%e0%b8%8a%e0%b8%b2%e0%b8%81%e0%b8%b2%e0%b8%a3%e0%b8%ad%e0%b8%b1/?fbclid=IwAR1vylhIHFt73L_a7THFTJdPq-RDIQ_DsMD2cLO5I4usnmYZRzyFDycLY0Q
[3]
https://www.techopedia.com/2/32031/trends/a-tour-of-deep-learning-models
1 บันทึก
4
1
1
4
1
โฆษณา
ดาวน์โหลดแอปพลิเคชัน
© 2024 Blockdit
เกี่ยวกับ
ช่วยเหลือ
คำถามที่พบบ่อย
นโยบายการโฆษณาและบูสต์โพสต์
นโยบายความเป็นส่วนตัว
แนวทางการใช้แบรนด์ Blockdit
Blockdit เพื่อธุรกิจ
ไทย