26 ม.ค. เวลา 08:36 • วิทยาศาสตร์ & เทคโนโลยี

📌 สรุปเนื้อหาสำคัญในคอร์ส Generative AI for Everyone ที่สอนโดย Andrew Ng 📝

คอร์ส Generative AI for Everyone ใน Coursera เป็นคอร์สที่อธิบายตั้งแต่พื้นฐานเลยว่ามันทำงานยังไง คนที่ไม่มีความรู้เลยในด้าน Generative AI หรือมีความรู้แบบจำกัดจำเขี่ยแบบผมก็สามารถเรียนได้
โดยเนื้อหาเขาจะแบ่งออกเป็น 3 ส่วนสำหรับการวางแผนเรียนแบบ 3 สัปดาห์ แต่ใครจะเรียนเร็วกว่านั้นก็ได้เลยยยย
🔘 สัปดาห์ที่ 1 : Introduction to Generative AI
Andrew จะสอนพื้นฐานตั้งแต่ว่า Generative AI คืออะไร มันทำอะไรได้บ้างและทำอะไรไม่ได้บ้าง อันนี้คนส่วนใหญ่อาจจะไม่รู้ข้อจำกัดของมัน
🔘 สัปดาห์ที่ 2 : Generative AI projects
จะเป็นการเล่าถึงการนำ Generative AI ไปใช้ใน project use cases ต่าง ๆ และ options ต่าง ๆ ที่มีในการเลือกใช้
🔘 สัปดาห์ที่ 3 : Generative AI in Business and Society
 
จะเน้นการนำ Generative AI ไปใช้ในธุรกิจและ impact ต่องานต่าง ๆ รวมไปถึงการใช้ AI อย่างรับผิดชอบและมีจริยธรรม
☝🏻 แล้ว Andrew Ng เป็นใครทำไมเราต้องเรียนกับเขา????
👉🏻 Andrew เป็นเหมือน pioneer คนแรก ๆ ที่เชี่ยวชาญเกี่ยวกับด้าน AI เขาเป็นหนึ่งใน founding member ของ Google Brain เรียกได้ว่าเป็น expert ที่รู้เรื่อง AI มากที่สุดคนหนึ่งของโลก เขายังเป็นผู้ก่อตั้งบริษัท AI Fund, DeepLearning.AI (ที่ทำคอร์สนี้) และ Coursera รวมถึงการเป็นบอร์ดบริหารให้กับ Amazon
เห็นโปรไฟล์เทพขนาดนี้แล้วรีบไปเรียนกันเลยครับ 😁
……………..
“The rise of generative AI”
Andrew เริ่มจากการโชว์ให้ดูครับว่าการ launch ตัว ChatGPT เมื่อ Q4 ปี 2022 นั้นทำให้ generative AI เข้ามามีบทบาทกับโลกเราอย่างมากและรวดเร็ว โดย Generative AI จะมีผลกระทบถึงเศรษฐกิจโลกดังนี้
• เพิ่มมูลค่าทางเศรษฐกิจของโลกได้ราว 2.6 – 4.4 ล้านล้านดอลลาร์สหรัฐต่อปี 📈
• เพิ่ม GDP ของโลกได้ 7% ในอีก 10 ปีข้างหน้า
• คนทำงาน 80% ของโลกจะได้รับส่งผลกระทบต่องานที่ต้องทำในแต่ละวันราว 10%
ผลกระทบเยอะขนาดนี้เราคงต้องศึกษากันแล้วแหละครับ
……………..
“AI is a set of tools”
ก่อนอื่นเล่าไปถึงว่า ที่เราเรียกว่า AI นี่มีอะไรบ้าง AI ก็ประกอบไปด้วย AI แบบต่าง ๆ ได้แก่
• Supervised Learning
• Generative AI
• Unsupervised Learning
• Reinforcement Learning
ซึ่งในคอร์สนี้เขาจะพูดถึงแค่ Supervised Learning กับ Generative AI
💡 Supervised Learning คือ การที่เราสอน AI โดย labeled data โดยการใส่ input A เข้าไปเพื่อให้ได้ output B โดยเราต้องสอนให้ AI หาคำตอบ หรือ output ได้ด้วยตัวเอง โดยยการเรียนรู้จากชุดข้อมูลตัวอย่าง
💡 ส่วน Generative AI คือ AI ที่สามารถผลิต content คุณภาพสูง จำพวกข้อความ รูปภาพ และเสียงได้
เมื่อ data มีปริมาณมากขึ้นเรื่อย ๆ เราจำเป็นต้องสร้าง Large AI Models ขึ้นมาเพื่อให้มีประสิทธิภาพสูงขึ้นด้วย
Large Language Model หรือที่เราได้ยินกันบ่อย ๆ ว่า LLM ก็เป็นตัวหนึ่งที่ใช้ในการสร้างข้อความขึ้นมา
……………..
“LLM as a thought partner”
LLM ถูกสร้างมาจาก supervised learning (ที่ทำนาย input จาก A ไป B )โดยมันทำงานโดยการการทำนายคำต่อไปหรือ predict the next word ซ้ำๆ ไปเรื่อย เช่น
รอบที่ 1
Input (A) คือ My favorite food is a…
Input (B) คือ Bagel
รอบที่ 2
Input (A) คือ My favorite food is a bagel…
Input (B) คือ with
รอบที่ 3
Input (A) คือ My favorite food is a bagel with…
Input (B) คือ cream
รอบที่ 3
Input (A) คือ My favorite food is a bagel with cream…
Input (B) คือ cheese
เมื่อจบก็จะได้ประโยคที่ว่า My favorite food is a bagel with cream cheese.
และเมื่อเรา train AI ด้วยข้อมูลจำนวนมหาศาล เราก็จะได้ Large Language Model แบบ ChatGPT นั่นเองครับ
ซึ่งเราสามารถใช้ตัว LLM นี้เป็นตัวคู่คิดเราได้ เช่น ใช้ในการหาข้อมูล ใช้ช่วยในการเขียน ย้ำนะครับว่าเป็นคู่คิด ไม่ไช่ว่าใช้ทำแทนเราเลย
⁉️ ถามว่าแล้วระหว่างการหาข้อมูลผ่าน web search กับถาม LLM อันไหนดีกว่า?
Andrew สรุปให้ฟังว่าหากต้องการข้อมูลที่ถูกต้องเป๊ะ ๆ มีหลักการรองรับ การหาผ่าน web search จะได้ข้อมูลที่แม่นยำถูกต้องกว่า มี reference (trustworthy sources)
แต่หากต้องการได้ไอเดียใหม่ ๆ หรือคำถามที่ไม่ค่อยมีคนถาม การใช้ LLM เพราะมันสามารถใช้การหาข้อมูลจากหลาย ๆ ที่มาประกอบแล้วตอบเราได้ ในขณะที่ใช้ web search อาจจะไม่พบข้อมูล แต่ต้องระวังเรื่องความถูกต้องของข้อมูลที่ LLM จะมีข้อเสียคือ “hallucination” คือมันจะสามารถ make ข้อมูลขึ้นมาได้แบบเนียน ๆ ครับ
……………..
“AI is a general purpose technology”
“AI เก่งในเรื่องอะไร?” คำถามนี้ตอบได้ยากเพราะ AI ทำได้หลาย ๆ อย่าง
Andrew บอกว่า AI ก็เป็นเทคโนโลยีที่เหมือนกระแสไฟฟ้าที่เรานำไปใช้งานได้หลาย ๆ อย่าง (general purpose) ไม่เหมือนกับเทคโนโลยีอย่างรถยนต์ หรือ ไมโครเวฟที่ทำได้แค่ฟังก์ชั่นเดียว
โดยตัวอย่างหลัก ๆที่เรานำ LLM ไปใช้ก็คือ การเขียน การอ่าน และการพูดคุย
ตัวอย่างการใช้ เช่น
การเขียน – เนื่องจากว่ามันสามารถสร้างข้อความได้ เราสามารถใช้มันตอบคำถามหรือให้คำแนะนำเราได้
การอ่าน – เราสามารถโยนข้อมูล เช่น บทความยาว ๆ ไปให้ Gen AI อ่านแล้วสรุปออกมาให้เราได้
การพูดคุย – ตัวอย่างที่เราเห็นบ่อยสุดคือ พวก chatbot ต่าง ๆ โดยใช้กันอย่างมากในงาน customer service
……………..
“What LLMs can and cannot do”
สิ่งสำคัญมากอีกอย่างที่เราจำเป็นต้องรู้คือ Gen AI หรือ LLM นั้นทำอะไรได้ และทำอะไรไม่ได้ หรือ มีข้อจำกัดอะไร?
Andrew ได้ให้เราตั้งคำถามเพื่อ cross check ว่า เราจะ prompt ถาม Gen AI ว่าจะทำอะไรได้มั้ย ให้เราลองตั้งคำถามว่า
“งานประเภทนี้นักศึกษาจบใหม่จะสามารถทำตาม instruction หรือ prompt ที่เราให้ไปได้หรือไม่”
🚨 ข้อจำกัดที่ Gen AI ทำไม่ได้คือ
1. Knowledge cutoffs ซึ่งตัว model Gen AI ทุกตัวจะโดน train โดยมีวัน cutoff ที่จุดหนึ่ง ดังนั้นการที่เราถามหาข้อมูลที่ใหม่มาก ๆ จะไม่สามารถตอบได้
2. Hallucinations คือ การที่ Gen AI ทำการ make ข้อมูลขึ้นมาเอง ซึ่งต้องระวังเป็นอย่างมาก เราจำเป็นต้องตรวจสอบข้อมูลที่ได้มาอีกครั้ง
3. ความยาวของ Input และ Output มีจำกัด โดนส่วนใหญ่ input prompt จะรับได้แค่ไม่กี่พันคำเท่านั้น รวมถึง output ที่ได้ออกมาเช่นกัน
4. Gen AI ทำงานได้ไม่ค่อยดีกับ structured data เช่น ข้อมูลที่ให้เป็นตารางในลักษณะให้ predict ค่าจาก A ไป B ในกรณีนี้ให้ใช้ supervised learning ตัว Gen AI เองทำงานได้ดีกับ unstructured data ซึ่งก็ได้แก่ พวก text รูปภาพ เสียง วิดีโอ
5. การมี bias และ toxicity ซึ่งเป็นเรื่องใหญ่ เช่น ในการตอบคำถามเมื่อถามถึงบางอาชีพ ก็จะมีการ assumeเพศที่น่าจะเป็น อย่าง surgeon ก็จะ assume เป็นผู้ชาย ส่วน nurse ก็ assume เป็นผู้หญิงไปเลย ทั้ง ๆ ที่ทั้งสองอาชีพมีทั้งผู้ชายและผู้หญิง
……………..
“Tips for prompting”
Andrew ได้ให้คำแนะนำในการเขียน prompt ไว้ 3 ข้อดังนี้
• Be detailed and specific เขียนให้ละเอียดและจำเพาะเจาะจงให้มากที่สุด ให้ context ที่เพียงพอ
• ให้คำแนะนำ model คิดในการคิดอย่างเป็นระบบ เช่น ระบุไปเลยว่าขั้นตอนที่ 1, 2, 3 ให้ทำอะไรเป็นขั้นตอน
• Experiment and iterate ทดลอง และทำซ้ำให้ดีขึ้นเรื่อย
……………..
“Life cycle of a generative AI project”
เข้าสู่เนื้อหาในสัปดาห์ที่ 2 Andrew จะอธิบายการนำ Gen AI ไปใช้ใน software applications ต่าง ๆ ซึ่ง Life cycle ของการทำ application จะเป็นแบบนี้
Scope project -> Build/Improve system -> Internal evaluation -> Deploy and monitor
ซึ่งการสร้าง Gen AI software ก็เป็นการทดลองรูปแบบหนึ่ง คือ เป็นการสร้าง prototype เร็ว ๆ มาทดสอบ (Andrew บอกว่าบาง applications เขาทำ prototype กันแค่ 1-2 วันเท่านั้น) หาข้อผิดพลาดและแก้ไขวนลูปไปจนได้ model ที่โอเค ซึ่ง tools ที่จะใช้ปรับปรุง Gen AI ก็คือ
🔘 การ prompt แล้วดู response ที่ได้ว่าโอเคมั้ย
🔘 การให้ LLM สามารถเข้าถึง data sources ภายนอก หรือที่เราเรียกว่า RAG (Retrieval augmented generation) ตัวอย่าง application ที่ใช้ RAG ก็ได้แก่พวก chat with PDF files
🔘 การปรับจูน fine tuning model เพื่อช่วยใน LLM รู้ข้อมูลที่จำเพาะเจาะจง เช่น อยากให้เขียนเป็น style ที่เราอยากให้เป็น ก็ต้องระบุไป
🔘 การ pre-training models โดยให้เรียนรู้จาก text ใน internet
……………..
“Big Idea : LLM as reasoning engine”
Andrew ให้วิธีคิดในการมองการใช้ LLM ว่า LLM รู้เยอะก็จริง แต่มันไม่ใช่ knowledge store แต่ให้คิดว่ามันเป็น “reasoning engine” อันนี้เป็นแนวคิดหลักที่เราทุกคนต้องเข้าใจให้ถูกต้อง
☑️ เพราะ LLM ไม่ได้รู้ทุกสิ่ง (จากข้อจำกัดที่กล่าวไว้ข้างต้น) ถึงแม้ว่ามันจะมีความสามารถอ่านข้อมูลต่าง ๆ ได้เยอะมากใน internet
☑️ ในตัวอย่างของการใช้ RAG เราสามารถให้ข้อมูลเพิ่มเติมใน prompt ได้เพื่อให้มันอ่านข้อมูลเหล่านั้นแล้วนำไป process หาคำตอบ
☑️ เราต้องใช้เป็น reasoning engine เพื่อที่จะใช้ process ข้อมูลต่าง ๆ แทนที่จะใช้มันเป็น source of information
……………..
“Cost intuition”
Andrew เล่าว่าเขาเองก็โดนถามบ่อยว่าการนำ Gen AI หรือ LLM มาใช้นั้นราคาแพงหรือไม่ ในความรู้สึกเราดูเหมือนว่าน่าจะเป็นต้นทุนที่สูง แต่ Andrew บอกว่าจริง ๆ มันถูกกว่าที่เราคิดเยอะ โดยการประเมินราคาเราจะคิดตามจำนวน tokens ของ input และ output
Tokens ก็คือ คล้าย ๆ กับจำนวนคำ แต่ไม่ได้เท่ากันเป๊ะ ๆ โดยคร่าว ๆ 1 token = ¾ คำ
ตัวอย่าง application อย่าง ChatGPT 3.5 นั้นชาร์จเราในราคาประมาณนี้
Input ราคา $0.0015/1,000 tokens
Output ราคา $0.002/1,000 tokens
วิธีการคิดก็คือ เช่น หากเราต้องการ generate คำตอบ ที่มีจำนวน 300 คำ ซึ่งจะเท่ากับมี 400 tokens เราก็เอาราคา input/output ข้างบนไปคูณจำนวน tokens เพื่อประเมินราคาเบื้องต้นได้เลย
……………..
“Closed or Open sources”
ในการเลือกใช้ LLM ในการสร้าง software application นั้นมีตัวเลือกมากมายโดยปัจจัยหลักที่จะพิจารณาคือขนาดของ model และการเลือกว่าจะใช้แบบ closed หรือ open sources
Closed-sources model จะสามารถเข้าผ่าน cloud programming interface ได้ แล้วใช้ง่ายในการสร้าง model โดย model ใหญ่ ๆ ที่มีตอนนี้ก็ใช้วิธีนี้ นอกจากนี้ยังราคาไม่สูงมาก แต่ข้อเสียคือ มันมีความเสี่ยงที่ vendor จะ lock-in ผูกขาดให้เราต้องใช้ของเขาต่อไปเรื่อย ๆ เนื่องด้วยการเปลี่ยน vendor นั้นมีต้นทุนที่สูงนั่นเอง
ในขณะที่ open-sources model นั้น เราสามารถมี full control ได้เลยและสามารถ run ได้บนเครื่องหรืออุปกรณ์ของเราเอง ไม่ต้องกลัวว่า vendor lock-in
……………..
“Task analysis of the Jobs”
หลายคนกังวลว่า AI จะเข้ามาแทนคน ทดแทนอาชีพต่าง ๆ ซึ่งในความเป็นจริงแล้วไม่ใช่ แต่ AI จะเข้ามาช่วยและทดแทน tasks หรืองานในอาชีพนั้น ๆ ต่างหาก
💡 “AI doesn’t automate jobs. It automates tasks”
ในอาชีพหนึ่ง ๆ ก็จะมี tasks หลาย ๆ อย่างที่ต้องทำ เช่น ทนายความ นั้น ก็จะมี task ต่าง ๆ ตั้งแต่
การร่างและตรวจสอบเอกสารทางกฎหมาย
การตีความกฎหมาย
การรีวิวหลักฐาน
การเจรจาเพื่อ settle disputes
การขึ้นศาลเพื่อเป็นตัวแทนลูกค้า
หากเราพิจารณาความเป็นไปได้ของ Gen AI ที่จะมาทดแทน task ต่างๆ ข้างต้นเราจะเห็นได้ว่า AI นั้นมี potential ที่จะทดแทน task ได้แค่บางอย่างเท่านั้น เช่น การร่างและตรวจสอบเอกสาร หรือ การตีความกฎหมาย แต่งานประเภทการเจรจาหรือไปขึ้นศาลนั้นยากที่ Gen AI จะมาทดแทนได้
💡 โดยการนำ AI มาใช้เราทำได้สองแบบคือ Augmentation คือการให้มันช่วยเราหรือ recommend เรา หรือ Automation ที่ให้มันทำงานแทนเราไปเลย โดยทั่วไปเรามักจะเริ่มใช้ AI ช่วยเราก่อนหรือ Augmentation ก่อนนั่นเองครับ
……………..
“Automation potential across sector”
หลายคนน่าจะเข้าใจว่า AI จะมาทดแทนงานที่ไม่ซับซ้อนและเป็นงานค่าแรงที่ไม่สูงนัก แต่จากการศึกษาที่ OpenAI นั้นพบว่า Generative AI จะมาทดแทนงานที่มีค่าแรงสูงมากกว่า 😲
จริงที่ว่า supervised learning นั้นจะมาทดแทนงาน routine งานซ้ำๆ ต่าง ๆ ได้มาก แต่ Generative AI หรือ LLM นั้นทำได้มากกว่านั้น
และหากเข้าไปดูการศึกษาของทาง McKinsey จะพบว่างานจำพวก customer service นั้นจะโดนทดแทนได้มากในแง่ของ total spending แต่ทั้งนี้ทั้งนั้น Andrew ก็ได้เตือนว่าถึงเราจะอยู่ในธุรกิจที่งานไม่โดนกระทบมากในแง่ของมูลค่า แต่ก็มีโอกาสที่จะทำให้การทำธุรกิจนั้นมีการเปลี่ยนแปลงได้เช่นกัน
และหากเราดูในแง่ของผลกระทบเทียบเป็น industry section จะพบว่า Generative AI นั้นมีผลกระทบต่อ “knowledge worker” ซึ่งส่วนใหญ่จะเป็นคนทำงานที่ใช้ความรู้ นั่ง office มากที่สุดนั่นเองครับ 😱
……………..
“Concerns about AI”
ในส่วนท้าย ๆ ที่จะพูดถึงคือ ข้อกังวลใจของสังคมในแง่มุมต่าง ๆ ซึ่ง Andrew นำมาอธิบายให้ฟัง 3 เรื่อง
1) AI จะทำให้มนุษยชาติยิ่งแย่ไปอีกหรือไม่
Andrew อธิบายว่า LLMs นั้นถูก train จากข้อมูลใน internet ซึ่งมีทั้งข้อมูลในส่วนที่แสดงความยอดเยี่ยมของมนุษย์และความเลวร้ายของมนุษย์เช่นเดียวกัน ส่วนที่ว่ามันจะทำให้เรายิ่งแย่ลงไป Andrew มองว่าไม่ เพราะยิ่งนานไป LLM จะถูก train ให้ดีขึ้น มี bias น้อยลงไปเรื่อย ๆ จากการทำ fine tuning และอีกเทคนิคที่เรียกว่า RLHF หรือ Reinforcement Learning from Human Feedback ซึ่งคือการที่มนุษย์ไปใส่ข้อมูลเพิ่ม train AI เพื่อลด bias
2) การสูญเสียงานของมนุษย์ (Job loss)
มีคนบอกว่า Radiologist น่าจะตกงานในเร็ววันเนื่องจากการมาแทนของ AI แต่หากเราใช้วิธีแตกรายละเอียด task ต่าง ๆ ที่ Radiologist ต้องทำ จะเห็นว่ายังมี task อีก หลาย task ที่ AI ไม่สามารถทำแทนได้ แม้ว่าหน้าที่การอ่านฟิล์ม X-rays นั้น AI จะทำได้ดีกว่ามนุษย์ แต่งานจำพวกการที่ต้อวสื่อสารผลการตรวจให้กับคนไข้ หรือ การตอบสนองและแก้ปัญหาระหว่างกระบวนการนั้นก็ยังยากที่ AI จะมาทำได้ดีเท่า ดังนั้นในความเป็นจริงมนุษย์จะไม่ถูกทดแทนแต่จะใช้ AI มาช่วยให้ทำงานได้ดีขึ้นมากกว่า
Curtis Langlotz professor ที่ Stanford University กล่าวไว้ว่า
“AI won’t replace radiologists. But radiologists who use AI will replace radiologists that don’t”
3) การสูญพันธ์ของมนุษย์ (Human Extinction)
คำถามสำคัญที่ว่าแล้ว AI จะทำลายล้างเผ่าพันธุ์มนุษย์ (แบบในหนังเรื่อง Terminator) หรือไม่นั้น Andrew นั้นบอกว่าในทุกเทคโนโลยีใหม่ที่เกิดขึ้นเรามักจะได้ยินข่าวความผิดพลาดอยู่เป็นระยะ เช่น self-driving car ที่ทำงานผิดพลาดขับรถชนรถตาย หรือ ในปี 2010 ที่ trading algorithm ทำงานผิดพลาดจนหุ้นร่วงอย่างหนัก
แน่นอนว่า software ที่ออกแบบมาไม่ดีย่อมเกิดเหตุการ์ณดังกล่าวได้ แต่จะถึงขั้นทำให้มนุษย์เราสูญพันธ์เลยมั้ย คงไม่น่าจะเกิดขึ้น
Andrew มองว่ามนุษย์เรามีประสบการณ์มากพอแล้วสำหรับการที่จะควบคุมและจัดการเทคโนโลยีใหม่ถึงแม้เราจะไม่สามารถควบคุมมันได้ 100%
ยกตัวอย่าง กรณีของเครื่องบินที่เราก็ยังไม่สามารถควบคุมทุกปัจจัยในการบินไม่ให้เกิดอุบัติเหตุได้ เช่น สภาพอากาศ แต่มนุษย์เราก็พยายามหาทางป้องกันด้วยการออกแบบระบบความปลอดภัย เตือนภัยเพิ่มมากขึ้น รวมไปถึงการปรับเปลี่ยนกฎระเบียบต่าง ๆ ให้ operate ได้ปลอดภัยขึ้น
Real risk จริง ๆ ที่มนุษย์ควรระวังและกลัวคือ Climate change หรือ pandemic ครั้งต่อ ๆ ไปที่จะเกิดขึ้น ที่จะสามารถนำไปสู่การล่มสลายของมนุษยชาติได้จริง ซึ่ง AI นี่แหละจะมาช่วยเราจัดการและลดปัญหาเหล่านี้ได้
“Responsible AI”
ในการพิจารณาการใช้ AI ให้ถูกต้องและอย่างมีความรับผิดชอบนั้น Andrew บอกว่าเรามองกันในแง่มุมต่อไปนี้
Fairness – ต้องแน่ใจว่า AI ไม่ได้มี bias
Transparency – ต้องทำให้ stakeholders ต่าง ๆ
เข้าใจถึงระบบ AI ที่ใช้รวมถึงกระบวนการการตัดสินใจจาก AI
Privacy – ต้องป้องกันข้อมูลส่วนบุคคลหรือข้อมูลที่เป็นความลับให้ดี
Security - ต้องมี Safeguard AI system เพื่อป้องกันการถูกโจมตีทางไซเบอร์
Ethical Use - ต้องใช้ AI โดยมีวัตถุประสงค์ที่ดีและเป็นประโยชน์
สุดท้ายก่อนปิดคอร์ส Andrew ได้ให้ข้อแนะนำ tips for responsible AI ไว้ดังนี้ครับ
• เราจำเป็นต้องสร้าง culture ให้เกิดการ debate และ discuss ในเรื่องของจริยธรรมให้มาก
• Brainstorm เพื่อดูว่าอะไรจะเป็นสาเหตุให้เกิดความผิดพลาดได้บ้าง
• ต้องทำงานร่วมกับคนหลากหลายมุมมองและรับฟังมุมมองต่าง ๆ จาก stakeholders ทุก ๆ ฝ่าย
ใครสนใจก็ลองไปสมัครเรียนใน Coursera ได้นะครับ เข้าใจว่าลงเรียนได้ฟรีแต่ถ้าอยากได้ certificate เท่ ๆ ต้องจ่ายเงินเพิ่มครับ 😄
โฆษณา