เปิด Stack IDE สาย Data: เครื่องมือเดียวไม่เคยพอ? พร้อมสถิติที่น่าสนใจจาก Stack Overflow

“คิดว่า IDE ตัวไหนดีในความเห็นของคนทำงานสายเดต้า และแต่ละเครื่องมือมีศักยภาพต่างกันอย่างไร ?”

คำถามจากทางบ้านในช่อง YouTube ของ Datayolk

บทความนี้จะมาช่วยตอบคำถามจากทางบ้าน ซึ่งคำตอบแบบสั้น ๆ คือ ขึ้นอยู่กับลักษณะงาน, ความชอบ และความจำเป็นในการต้องทำงานร่วมกัน แต่สำหรับคนทำงานปัจจุบันมีการผสมสานเครื่องมือหลายตัวให้เหมาะกับโจทย์แต่ละโจทย์ วันนี้เราจะมาเจาะลึกความเห็นที่ต่างกันนี้ว่า ‘เครื่องมือดี’ ในแต่ละมิตินั้นของการทำ Data คืออะไร และทำไมคนทำงานจริงถึงต้องมีคำตอบที่ต่างกัน

Integrated Development Environment (IDE) คือ แอปพลิเคชันซอฟต์แวร์ที่รวบรวมเครื่องมือพื้นฐานที่จำเป็นสำหรับการพัฒนาซอฟต์แวร์ไว้ในจอเดียว (Graphical User Interface – GUI) เพื่อช่วยให้นักพัฒนาสามารถเขียนโค้ด (Coding), ทดสอบ (Testing) และแก้ไขข้อผิดพลาด (Debugging) ได้อย่างเบ็ดเสร็จในที่เดียว โดยไม่ต้องสลับไปมาระหว่างโปรแกรมหลายตัว

คำถามนี้มาประจวบกับที่เราไปเห็น Stack Overflow Survey 2025 ที่สำรวจความเห็นมุมมองด้านต่าง ๆ ของการใช้เครื่องมือและเทคโนโลยีของคนทำงานงานสาย IT

เลือกอ่านเฉพาะหัวข้อ -

ผลสำรวจของ Stack Overflow ปี 2025 คนทำงานสาย Data ทั่วโลกนิยมใช้ Visual Studio Code

จากผู้ทำแบบสำรวจทั่วโลก 49,019 คน เราคัดมาเฉพาะผู้ที่ใช้ IDE และเป็นคนที่ทำงานในสาย Data (Data engineer, Data analyst & Business analyst, Data scientist และ AI/ML engineer) จำนวน 1,408 คน

ผลสำรวจของผู้ตอบแบบสอบถามสาย Data ใน Stack Overflow ปี 2025

ชุดคำถามที่เราหยิบมาจาก Stack Overflow ถามว่า อยากจะใช้เครื่องมืออะไรในปีหน้า (2026) และที่ผ่านมาในปีนี้ (2025) ใช้เครื่องมืออะไร

คำถามในแบบสำรวจ

“Which development environments and AI-enabled code editing tools did you use regularly over the past year, and which do you want to work with over the next year? Please check all that apply”

ข้อมูลเครื่องมือ IDE โดยแกน Y คือเครื่องมือที่ยังไม่ได้ใช้แต่อยากใช้ กับแกน X เครื่องมือที่ได้มีการใช้งานบ้างแล้ว

ซึ่งผู้ตอบคำถามสามารถเลือกได้มากกว่าหนึ่งเครื่องมือ ผลลัพธ์ปรากฎว่าเครื่องมือที่ได้รับนิยมใช้ในการทำงาน 80% ใช้ Visual Studio Code (VS Code), 50% ใช้ Jupyter Notebook/JupyterLab, 30% ใช้ PyCharm, 29% ใช้ Notepad++ และ 26% ใช้ Vim

แต่ถ้าเรียงลำดับจากความต้องการใช้งานในปีหน้าสามลำดับแรกยังคงเหมือนกันแต่ลำดับที่ 4 เปลี่ยนเป็น Vim และ ลำดับ 5 เป็น Cursor

สัมภาษณ์คนทำงานตัวจริงในไทย ชอบใช้เครื่องมืออะไร

มาถึงคำถามจากทางบ้านที่ว่าเครื่องมือไหนดีสุด? และดีในแง่ไหน? เราจึงทำการสัมภาษณ์คนใกล้ตัวที่ทำงานสาย Data ในไทยกันก่อน

คุณแอมป์ Data Analyst อายุงาน 7 ปี เลือกใช้ Jupyter Notebook

เริ่มที่ผู้เขียน (แอมป์) เอง ในฐานะของคนทำงาน Data ที่เป็น Data Analyst สำหรับเราเลือกให้ Jupyter Notebook/JupyterLab เพราะความเคยชินและการทำงานร่วมกันกับคนอื่นที่สะดวก

“มีเหตุผล 2 ข้อด้วยกัน ข้อแรกความเคยชิน ในตอนที่เรียนฝึกเขียนโค้ดใหม่ ๆ พวก Tutorial ต่าง ๆ ที่ใช้เครื่องมือนี้ฝึกเขียนโค้ดใน Cell ค่อย ๆ เขียนทีละ 2-3 บรรทัด รันดูผลลัพธ์ ถ้าผ่านค่อยไปต่อ มันทำให้ภาพในหัวเราชัดว่าโค้ดบรรทัดไหนทำหน้าที่อะไร ไม่กดดันเท่ากันเครื่องมืออื่นที่เปิดมาแล้วเจอจอโล่ง ๆ พอเราฝึกมาแบบนี้จึงกลายเป็นความเคยชินและโชคดีที่ทำงานที่เราก็ใช้เครื่องมือนี้ เหตุผลต่อมาคือ Standardized Environment ถ้าทำงานบน Cloud Google Colab เราทุกคนเห็นภาพเดียวกัน เหมือนใช้คอมพิวเตอร์เครื่องเดียวกัน ส่งงานต่อง่ายและช่วยกันทำงานก็ง่ายด้วย ยิ่งงานเราต้องสร้างกราฟด้วย เพื่อนร่วมงานจะเห็นผลลัพธ์ที่เรารันค้างไว้ทันที เขาจะเห็นภาพรวมได้ก่อนเลยโดยที่ไม่ต้องเสียเวลามานั่งไล่โค้ดทีละบรรทัดเพื่อทำความเข้าใจ”

คุณซินดี้ Data Analyst อายุงาน 8 ปี เลือกใช้ VS Code

คุณซินดี้ (นามสมมติ) ตำแหน่ง Data Analyst ชอบ VS Code มากกว่า เพราะความเร็วและ สามารถใช้ Shortcuts ใน Keyboard ที่ช่วยเพิ่มประสิทธิภาพ

ชอบใช้ Shortcuts ค่ะ ถ้าเราใช้จนคล่อง แทบไม่ต้องแตะเมาส์เลย การจัดการบรรทัดโค้ด การค้นหาไฟล์ทั่วทั้งโปรเจกต์มันเร็ว ซึ่งถ้าเป็น JupyterLab เวลาไฟล์เยอะๆ มันจะเริ่มหน่วง

คุณชอน Data Engineer อายุงาน 4 ปี เลือกใช้ PyCharm และ VS Code

คุณชอน (นามสมมติ) ตำแหน่ง Data Engineer ชอบใช้ทั้ง PyCharm และ VS Code เพราะความสามารถในการจัดการโปรเจกต์ขนาดใหญ่และ Debugging ที่แม่นยำ

มันจัดการ Git, Unit Test และ Environments ได้ นอกจากนี้ยัง Debugging สะดวก เวลา Pipeline ข้อมูลมันพังกลางทาง แล้วข้อมูลมีเป็นล้านแถว ไม่ต้องไปเจาะดูทีละบรรทัด สามารถตั้ง Breakpoint หยุดโค้ดไว้ตรงที่สงสัย แล้วเข้าไป ส่องดูไส้ในของ Memory ได้

สรุปคือคำตอบมีหลากหลายมากและดูเหมือนว่าไม่มีเครื่องมือไหนที่ดีสุด ซึ่งคำว่าดีของแต่ละคนนั้นแปลว่าเครื่องมือนั้นเหมาะกับสไตล์ส่วนบุคคลและงานแต่ละแบบ ซึ่งเราก็ทำการรวบรวมข้อมูลสรุปออกมาเป็น Checklist ของชาวเดต้าต่อการเลือกใช้เครื่องมือ IDE ที่ต่างกันได้ 4 มิติ ผ่านคำถาม 4 ข้อ

เครื่องมือ IDE ตัวไหนเหมาะกับเราที่สุด ตอบได้ด้วยคำถาม 4 แบบ ผ่านแนวคิด 4 มิติ

การเลือก IDE ที่ดีที่สุดสำหรับแต่ละคนขึ้นอยู่กับการตอบคำถาม 4 ข้อผ่านแนวคิด 4 มิติ ได้แก่

การคิดแบบ Output-Driven หรือเอาผลลัพธ์เป็นที่ตั้ง

การตั้งคำถามข้อแรก “ปลายทางของงานนี้คืออะไร?”

  • [ ] Exploratory Analysis: เน้นการทดลอง หาคำตอบจากตัวเลข และสร้างกราฟเพื่อสรุปผล (นิยมเลือก: Jupyter / Google Colab)
  • [ ] Automation Script: เน้นการเขียนโค้ดเพื่อรันงานอัตโนมัติ (นิยมเลือก: VS Code)
  • [ ] Production-Grade System: เน้นการสร้างระบบขนาดใหญ่ที่ต้องมีการทดสอบ (Testing) และต้องการบำรุงรักษาในระยะยาว (นิยมเลือก: PyCharm)

การคิดแบบ Collaboration-Driven หรือนึกถึงการทำงานร่วมกันเป็นที่ตั้ง

การตั้งคำถามข้อสอง “งานนี้ต้องทำคนเดียว หรือต้องส่งต่อให้ใครไหม?”

  • [ ] Non-Technical Audience: ต้องส่งให้หัวหน้าหรือลูกค้าที่ไม่ได้เขียนโปรแกรมดู (นิยมเลือก: Jupyter/Colab เพราะเห็นผลลัพธ์เลย)
  • [ ] Developer Team: ต้องทำงานร่วมกับ Engineer คนอื่น ต้องมีการตรวจโค้ด (Code Review) (นิยมเลือก: VS Code / PyCharm เพื่อใช้ Git ได้เต็มรูปแบบ)
  • [ ] Standardization: ทีมมีข้อกำหนดไหมว่าทุกคนต้องใช้ Environment เดียวกันเป๊ะๆ (นิยมเลือก: Google Colab หรือ Docker in VS Code)

การคิดแบบ Project Complexity หรือคำนึงถึงขนาด ขอบเขตของงานเป็นที่ตั้ง

การตั้งคำถามข้อสาม “โปรเจกต์ซับซ้อนแค่ไหน?”

  • [ ] Single File: โค้ดไฟล์เดียวจบ ไม่ซับซ้อน (นิยมเลือก: Jupyter หรือ Text Editor ทั่วไป)
  • [ ] Modular Project: มีไฟล์เชื่อมโยงกันหลายโฟลเดอร์ มีการเรียกใช้ Library ภายใน (นิยมเลือก: VS Code / PyCharm เพราะมีระบบจัดการ Path และ Refactoring ที่ดีกว่า)
  • [ ] Resource Intensive: ต้องใช้ GPU หรือ RAM มหาศาลที่เครื่องตัวเองไม่มี (นิยมเลือก: Google Colab / SageMaker)

การคิดแบบ Personal Workflow หรือนึกถึงความคล่องตัวในการทำงานส่วนตัวเป็นที่ตั้ง

การตั้งคำถามข้อสาม “สไตล์การทำงานเป็นแบบไหน?” “ชอบใช้แต่คีย์บอร์ด?” “ชอบแต่ง IDE” “ลง Plugin เพิ่ม productivity?”

  • [ ] Mouse vs Keyboard: ชอบใช้เมาส์คลิกดูค่าตัวแปร หรือชอบใช้คีย์บอร์ดคุมทุกอย่าง (นิยมเลือก: Neovim)
  • [ ] Visual Comfort: ต้องการเห็น Variable Explorer ตลอดเวลาเหมือนใน Excel หรือ MATLAB ไหม (นิยมเลือก: Spyder)
  • [ ] Extension Addict: ชอบปรับแต่งสีสันและลงเครื่องมือเสริมเพื่อช่วยเขียนโค้ดเร็วขึ้นไหม (นิยมเลือก: VS Code)

ไม่มีเครื่องมือเดียวที่ดีที่สุด: เปิดโพลความนิยมการจับคู่เครื่องมือที่ใช้จริงในโลกการทำงาน

จากผลสำรวจ Stack Overflow พบว่าคนทำงานสายเดต้าแต่ละคนมักใช้เฉลี่ย 3 เครื่องมือในการทำงาน ไม่มีเครื่องมือเดียวที่ตอบโจทย์ทุกสถานการณ์ โดยเครื่องมือที่นิยมจับคู่กันอันดับหนึ่งคือ Jupyter Notebook/JupyterLab และ Visual Studio Code รองลงมาคือ Visual Studio Code และ Notepad++

แนวทางการจับคู่เครื่องมือตามลักษณะการทำงานของ Data Analyst (ความเห็นของผู้เขียน)

ตัวอย่างสถานการณ์งานประจำวันของเราเอง (การใช้งานจริงของ Data Analyst)

สถานการณ์ที่ผู้เขียนทำคือใช้งานควบคู่ Jupyter และ VS Code และบางทีก็ใช้ Notepad++ พ่วงไปด้วย

ขั้นตอนที่ 1: Exploratory Data Analysis (EDA) ใช้ Jupyter

Data Analyst ที่เริ่มต้นโปรเจคยังแบบที่ไม่รู้ว่าจะเจออะไรในข้อมูลที่ได้รับมา จึงเริ่มต้นงานด้วย Exploratory Data Analyst (EDA) เปิด Jupyter เพื่อดึงข้อมูลมา Plot กราฟดูแบบเร็วๆ การเขียนเป็น Block ช่วยให้ลองผิดลองถูกได้ไว

ขั้นตอนที่ 2: จัดระเบียบและ Automation ใช้ VS Code

พอ Logic เริ่มนิ่ง เราจึงย้ายไปใช้ VS Code เพื่อจัดระเบียบโค้ดที่เริ่มยาวให้กลายเป็นฟังก์ชันที่อ่านง่าย มีการใช้ Extension SQL ใน VS Code เพื่อดึงข้อมูลจาก Database หลายๆ แหล่งมาประกอบกันเพื่อทำ Automation Script เอาไปใช้งานต่อ เราใช้แนวคิด Output-Driven ในการทำงานชิ้นนี้และใช้สองเครื่องมือนี้ควบคู่กันตอนทำโปรเจค

ขั้นตอนที่ 3: Data Cleaning (ถ้าจำเป็น) ใช้ Notepad++

หากต้องเพิ่มการคลีนซิ่งข้อมูลอย่างการสกัดคำหรือเพิ่มตัวแปรโดยใช้ Regular Expression (Regex) เรามักจะเปิด Notepad++ ขึ้นมาเป็นตัวช่วย เพราะความเร็วในการประมวลผลข้อความจำนวนมากและการทดสอบรูปแบบการค้นหา (Find & Replace) ที่แม่นยำ ช่วยให้เราจัดการข้อมูลดิบที่ยุ่งเหยิงให้พร้อมใช้งานก่อนจะส่งกลับเข้าไปใน Script หลัก

สรุปข้อแตกต่างของ 5 เครื่องมือ IDE ที่คนทำงานสายเดต้านิยมใช้

สรุปการใช้งานแต่ละเครื่องมือ IDE ตามลักษณะการทำงานและจุดเด่นของเครื่องมือ

1. Jupyter Notebook / Google Colab

  • เหมาะสำหรับ: งานช่วงต้น (EDA), การทำ Data Visualization, และการหา Data Insight
  • จุดเด่น: เขียนโค้ดเป็น Block (Cell) รันแล้วเห็นผลลัพธ์ทันที ช่วยให้ลองผิดลองถูกได้ไว และแชร์ผลลัพธ์ให้คนอื่นดูได้ง่ายโดยไม่ต้องรันโค้ดซ้ำ
  • มิติที่เลือกใช้: เน้น Output ที่เป็นกราฟ/รายงาน และการ Collaboration กับคนที่ไม่ใช่สายเทคนิคเช่น BA เขาสามารถได้ลิ้งไปแล้วเปิดดูกราฟได้เลย

2. VS Code (Visual Studio Code)

  • เหมาะสำหรับ: งานระดับกลางถึงสูง, การจัดระเบียบโค้ดให้เป็นฟังก์ชัน, และการทำ Automation Script
  • จุดเด่น: เบา เร็ว และมี Extension เยอะ (เช่น SQL, Python, Git) รันได้ทั้งไฟล์ Script (.py) และ Notebook (.ipynb) ในที่เดียว
  • มิติที่เลือกใช้: เน้น Workflow ที่คล่องตัว และความต้องการจัดการโปรเจกต์ที่มีหลายแหล่งข้อมูล

3. PyCharm

  • เหมาะสำหรับ: การสร้างระบบ Pipeline ขนาดใหญ่, งานวิศวกรรมข้อมูล (Data Engineering), และการทำ Product จริง
  • จุดเด่น: มีระบบ Debug ที่ละเอียดช่วยจัดการโปรเจกต์ที่ซับซ้อน (Modular) ได้แม่นยำ และสามารถ Linting/Testing ได้สะดวก
  • มิติที่เลือกใช้: เน้น Complexity ของงานระดับองค์กร และความปลอดภัยของระบบในระยะยาว

4. Notepad++

  • เหมาะสำหรับ: การตรวจเช็กไฟล์ข้อมูลดิบ (Raw Data), การแก้ไข Configuration สั้นๆ, และการทำ Data Cleaning เบื้องต้น
  • จุดเด่น: เปิดไฟล์ขนาดใหญ่ได้เร็วโดยไม่กินทรัพยากรเครื่อง มีฟีเจอร์ค้นหาและแทนที่ (Find & Replace) เหมาะกับงานคลีนข้อมูลด้วย Regular Expression (Regex)
  • มิติที่เลือกใช้: เน้นความเป็นเครื่องมืออเนกประสงค์ที่เรียกใช้งานได้ทันทีเมื่อต้องการดูข้อมูลแบบเร่งด่วนโดยไม่ต้องโหลดโปรเจกต์

5. Vim / Neovim

  • เหมาะสำหรับ: การจัดการไฟล์บน Server โดยตรง และการแก้ไขโค้ดด้วยความเร็วสูง
  • จุดเด่น: ทำงานผ่าน Terminal 100% ไม่ต้องพึ่งพาเมาส์ ประหยัดทรัพยากรเครื่อง และปรับแต่ง (Customization) ได้ตามใจ
  • มิติที่เลือกใช้: เน้น Workflow ส่วนตัวที่ต้องการความเร็วระดับ Flow State และการทำงานกับ Infrastructure หลังบ้าน

ตารางเปรียบเทียบ 5 IDE ยอดนิยมสำหรับคนทำงานสายเดต้า

ตารางเปรียบเทียบคุณสมบัติและการใช้งานของ IDE แต่ละตัวที่เหมาะกับลักษณะงาน

IDEเหมาะกับงานจุดเด่นจุดด้อยราคา
Jupyter Notebook / Google ColabEDA, Data Visualization, Data Insight– เขียนเป็น Cell รันทันที
– แชร์ผลลัพธ์ง่าย
– เห็นกราฟโดยไม่ต้องรันซ้ำ
– หน่วงเมื่อไฟล์เยอะ
– ไม่เหมาะกับโปรเจกต์ใหญ่
ฟรี
VS CodeAutomation Script, Mid-size Project– เบา เร็ว
– Extension เยอะ
– รองรับหลายภาษา
– ต้องติดตั้ง Extension เพิ่ม
– Learning curve สูงกว่า Jupyter
ฟรี
PyCharmData Engineering, Production System– Debug ละเอียด
– จัดการ Git/Testing ได้ดี
– เหมาะกับ Modular Project
– หนัก กิน RAM เยอะ
– Professional version เสียเงิน
Community: ฟรี
Professional: เสียเงิน
Notepad++Data Cleaning, Quick File Check– เปิดไฟล์ใหญ่เร็ว
– ไม่กิน Resource
– Find & Replace ด้วย Regex แม่นยำ
– ไม่มี Code Completion
– ไม่เหมาะเขียนโปรเจกต์ใหญ่
ฟรี
Vim / NeovimServer Management, Fast Editing– ทำงานผ่าน Terminal 100%
– ไม่ต้องใช้เมาส์
– ประหยัดทรัพยากร
– Learning curve สูงมาก
– ต้องจำ Command เยอะ
ฟรี

บทสรุปทำงาน Data เลือกใช้เครื่องมือไหนดี ?

ในการใช้งานจริง ปัจจัยที่กำหนด Tools (IDE) ที่ใช้ทำงานของเรามักประกอบด้วย

  • ความชอบและสไตล์ส่วนบุคคล: ความถนัดและความลื่นไหลในการใช้งานเครื่องมือที่ตอบโจทย์ Flow การคิดของแต่ละคน
  • นโยบายและการทำงานร่วมกัน: การเลือกใช้เครื่องมือที่เป็นมาตรฐานขององค์กรเพื่อให้การทำงานทีมเป็นไปอย่างราบรื่น บางองค์กรอาจกำหนดให้ใช้ VS Code เป็นหลัก หรือบางที่อาจใช้ Google Colab และ Jupyter Lab ในการแชร์โปรเจกต์ ซึ่งเราต้องพร้อมที่จะปรับตัวตามสภาพแวดล้อมนั้นๆ
  • ความเหมาะสมของเนื้องาน: การสลับใช้เครื่องมือตามความเหมาะสมของโปรเจกต์

ต้องขอบคุณคุณนักอ่านและยังเป็นเพื่อนร่วมงานสายเดียวกันที่ส่งคำถามที่ส่งให้เรา ที่จุดประกายให้เราได้ไปค้นหาคำตอบและเปิดมุมมองใหม่ ๆ ผ่านประสบการณ์ของผู้ใช้งานจริงในแวดวง IT เราได้เห็นความหลากหลายของจุดเด่นในแต่ละ IDE ซึ่งสะท้อนว่าในโลกการทำงานจริงนั้นไม่มีสูตรสำเร็จตายตัว

แล้วเพื่อนๆ ล่ะคะใช้เครื่องมืออะไรกันอยู่บ้าง? มาแชร์และแบ่งปันประสบการณ์กับเราได้เลย เผื่อทั้งผู้เขียนและผู้อ่านท่านอื่นๆ จะได้ตามไปลองใช้ดู เพื่อขยาย Community ของพวกเราให้ใหญ่ขึ้น

Reference SQL code ที่ใช้ทำข้อมูลกราฟในบทความ

CREATE OR REPLACE TEMP TABLE base_data AS (
  SELECT _ResponseId_, DevType, DevEnvsAdmired, DevEnvsWantToWorkWith, DevEnvsHaveWorkedWith
  FROM `city-running-app.survey_results_public_1768819332341.survey_results_public`
  WHERE DevType IN ('AI/ML engineer','Data engineer', 'Data or business analyst', 'Data scientist')
);

-- Unpivot สร้างคอลัมน์ Tool
SELECT _ResponseId_, DevType, 'Admired' as category, tool 
FROM base_data, UNNEST(SPLIT(DevEnvsAdmired, ';')) as tool WHERE tool <> 'NA'
UNION ALL
SELECT _ResponseId_, DevType, 'WantToWorkWith' as category, tool 
FROM base_data, UNNEST(SPLIT(DevEnvsWantToWorkWith, ';')) as tool WHERE tool <> 'NA'
UNION ALL
SELECT _ResponseId_, DevType, 'HaveWorkWith' as category, tool 
FROM base_data, UNNEST(SPLIT(DevEnvsHaveWorkedWith, ';')) as tool WHERE tool <> 'NA';

-- *Query นับจำนวนเครื่องมือเฉลี่ย (HaveWorkWith)
SELECT 
  'Average Tools per Person' as analysis,
  AVG(ARRAY_LENGTH(SPLIT(DevEnvsHaveWorkedWith, ';'))) AS avg_tools,
  APPROX_QUANTILES(ARRAY_LENGTH(SPLIT(DevEnvsHaveWorkedWith, ';')), 2)[OFFSET(1)] AS median_tools
FROM base_data
WHERE DevEnvsHaveWorkedWith IS NOT NULL AND DevEnvsHaveWorkedWith <> 'NA';

-- **Query จับคู่เครื่องมือที่นิยมใช้ร่วมกัน (HaveWorkWith)
WITH tool_list AS (
  SELECT _ResponseId_, tool
  FROM base_data, UNNEST(SPLIT(DevEnvsHaveWorkedWith, ';')) as tool
  WHERE tool <> 'NA'
)
SELECT 
  t1.tool AS tool_a, 
  t2.tool AS tool_b, 
  COUNT(*) AS pair_count
FROM tool_list t1
JOIN tool_list t2 ON t1._ResponseId_ = t2._ResponseId_ AND t1.tool < t2.tool
GROUP BY 1, 2
ORDER BY pair_count DESC
LIMIT 20;

อยากมาทำงานสาย Data ใช่มั้ย?

เรามี Workshop Data Interview ที่จะช่วยคุณเตรียมพร้อมสำหรับการสัมภาษณ์งาน ผ่านการทำ Case Interview