เขียนบล็อกด้วย Jekyll

กลับมาแล้วหลังจากหายหน้าไปพักใหญ่ๆ พร้อมกับบล็อกใหม่ ninnat.github.io ก็ขออธิบายหน่อยว่ามันต่างกับบล็อกบน WordPress อย่างไร

บล็อกใหม่นี้เป็น static site ก็คือเขียนมาเป็นหน้าๆ เขียนอย่างไรก็เป็นอย่างนั้น ต่างจากแบบ dynamic อย่าง WordPress ที่ทุกครั้งที่เปิดหน้า server ก็จะรวบรวมเอาส่วนต่างๆมาประกอบกันขึ้นเป็นหน้า ซึ่งก็มีข้อดีข้อเสียต่างกันไป เช่น เพจ static เขียนง่ายกว่า โหลดได้เร็วกว่า เพจ dynamic ตอบสนองได้มากกว่า แต่สำหรับหลายคคน WordPress นั้น “เยอะ” เกินไป บางคนต้องการแค่เนื้อหา Tom Preston-Werner จึงเขียน Jekyll ขึ้นมาจากคอนเซปต์ Blogging Like a Hacker

I already knew a lot about what I didn’t want. I was tired of complicated blogging engines like WordPress and Mephisto. I wanted to write great posts, not style a zillion template pages, moderate comments all day long, and constantly lag behind the latest software release…

After a period of reflection, I had an idea. While I’m not specifically trained as an author of prose, I am trained as an author of code. What would happen if I approached blogging from a software development perspective? What would that look like?

First, all my writing would be stored in a Git repository. This would ensure that I could try out different ideas and explore a variety of posts all from the comfort of my preferred editor and the command line. I’d be able to publish a post via a simple deploy script or post-commit hook. Complexity would be kept to an absolute minimum, so a static site would be preferable to a dynamic site that required ongoing maintenance. My blog would need to be easily customizable; coming from a graphic design background means I’ll always be tweaking the site’s appearance and layout.

Over the last month I’ve brought these concepts to fruition and I’m pleased to announce Jekyll.

ถ้าไม่อยากรู้ว่าสร้างบล็อกด้วย Jekyll อย่างไรก็ข้ามไปสองย่อหน้าเลย

วิธีทำเราก็ร่างไว้คร่าวๆในหน้า readme ของบล็อกนั้นแล้ว หลักๆก็คือเขียนด้วย Jekyll ในรูปแบบ Markdown แล้วใช้ปลั๊กอิน pandoc เปลี่ยนให้เป็น HTML เพราะมันทำให้เราเขียนสมการด้วย Mathjax ได้ซึ่ง syntax จะง่ายกว่าการเขียนสมการบน WordPress (และเพิ่ม macro ลัดสั้นได้เอง) เขียนเสร็จแล้วจะทำอะไรกับโค๊ดต่อ? Jekyll นั้นถูกสร้างขึ้นมาให้ทำงานร่วมกับ Git อย่างราบรื่น (ที่กำจัดปัญหาเรื่อง version control คือการเปลี่ยนแปลงทุกอย่างที่เราทำจะถูกบันทึกไว้หมด สามารถย้อนกลับได้เมื่อต้องการ เราเคยใช้เขียนเปเปอร์ร่วมกับ coauthor) เราสามารถ deploy โค๊ดไปยัง Git repository และให้มันสร้างบล็อก (hosted บน GitHub ฟรี!) โดยอัตโนมัติได้ด้วย Travis-CI

ก่อนจะลง Jekyll ต้องลง Ruby ก่อน ซึ่ง Ruby นั้นไม่ได้ถูกเขียนขึ้นมาให้เข้ากับ Windows ได้ดีนัก มีวิธีลง Ruby บน Windows ก็จริง แต่สุดท้ายเรามีปัญหาลงส่วนประกอบจำเป็นส่วนหนึ่งไม่ได้ทำให้ compile HTML บนเครื่องตัวเองก่อนจะ deploy ไป Git ไม่ได้ แต่ก็ไม่ทำให้ลำบากเกินไป เมื่อลง Jekyll ได้แล้วเราก็ไปก็อปปี้บล็อกของเพื่อนมาปรับเอาตามต้องการ (บล็อกของเพื่อนก็ปรับเอามาจากคนอื่นอีกที โดยเฉพาะจาก Carl Boettiger ที่ UC Berkeley ที่สนับสนุนวิทยาศาสตร์เปิด (open science) อย่างเต็มตัวโดยการเผยแพร่โค๊ดและผลทั้งหมดจากงานวิจัยสู่สาธารณะก่อนที่จะตีพิมพ์ด้วยซ้ำไม่กั๊ก ไม่กลัวถูกขโมย น่าชื่นชมมาก)

ผลก็คือบล็อกฟรีที่ปรับแต่งเองได้ อย่าง popup footnote เป็นอะไรที่เราอยากทำได้มานานแล้ว ปกติเวลาอ่านหนังสือเชิงอรรถมันจะไปอยู่ขอบล่างของหน้าหรือแย่กว่านั้นก็ไปอยู่ท้ายเล่มเลย ทำให้ต้องเปิดกลับไปกลับมา ซึ่งในเวบมันควรจะทำได้ดีกว่านั้น popup footnote (เราใช้ Bigfoot) แก้ปัญหานี้โดยการแสดงเชิงอรรถที่ซ่อนไว้ขึ้นมาตรงข้อความที่มันอ้างถึงเลยเมื่อเอาเมาส์ไปผ่าน ลูกเล่นหลายๆอย่างประมาณนี้ก็ทำใน WordPress ได้แต่ต้องจ่ายเงิน Jekyll ไม่มีการให้คนคอมเมนต์ ก็เสริม Disqus เข้าไปได้  ถ้าต้องการให้มีปุ่มแชร์ก็ใช้ Addthis ถ้าต้องการใช้ภาษาไทยอาจจะต้องลำบากหาวิธีหน่อย แต่เราไม่คิดว่าจะใช้เพราะมีบล็อกนี้อยู่แล้ว

ผู้อ่าน

คำถามตอนนี้ก็คือเมื่อเรามีสองบล็อก บล็อกหนึ่งเป็นภาษาไทย บล็อกหนึ่งเป็นภาษาอังกฤษ เราจะทำยังไงกับมัน? สำหรับเราความแตกต่างไม่ใช่แค่การแปลภาษา แต่ผู้อ่านที่เรามีในความคิดกับความยากในการเขียนก็ต่างกัน วิชาที่เรารู้กว่า 90% ได้มาจากการเรียนในอเมริกา เวลาเราสื่อสารเรื่องพวกนี้เราก็สื่อสารเป็นภาษาอังกฤษ ไม่ว่าคุยกันต่อหน้าหรือผ่าน Physics Forums หรือ Reddit แต่คนอ่านภาษาไทยส่วนใหญ่ไม่มีพื้นฐานร่วมกับเรา แล้วก็ไม่ค่อยได้ feedback อีก แถมยังเขียนยาก มักไม่มีคำแปลตรงตัวของคำศัพท์หรือวลีที่ใช้กันเป็นปกติในการคุยวิชาการ เรามีประสบการณ์เคยกลับไทยไปบรรยายในมหาวิทยาลัยและพยายามใช้คำไทย แต่สุดท้ายคนไทยที่ฟังก็ใช้ทับศัพท์ภาษาอังกฤษพูดกับเราอยู่ดี บางทีก็เลยขี้เกียจเขียนเหมือนกัน (โดยเฉพาะเราใช้คีย์บอร์ดมากกว่าสองภาษา ทำให้การเปลี่ยนภาษากลับไปกลับมาลำบากมากกว่าปกติ) ก็รอดูกันต่อไปว่าจะเกิดอะไรขึ้น

อย่าด่วนตีความแบบควอนตัมถ้าไม่จำเป็น

คำอธิบายควอนตัมให้คนทั่วไป (popularization) บนอินเตอร์เน็ตนั้นมีเต็มไปหมด จากนักฟิสิกส์จริงๆก็มี (แต่อาจจะถูกกรองผ่านผู้สร้าง content) แต่เท่าที่ผมเจอมาส่วนใหญ่ก็ยังไม่ดี ไม่ดียังไง?

เพื่ออธิบายจุดนี้ ผมขอแบ่งทฤษฎีควอนตัมเป็นสามส่วน: ตัวอย่างปรากฎการณ์ในทฤษฎี, ตัวทฤษฎี (คณิตศาสตร์), และการตีความสิ่งที่ทฤษฎีบอกเรา

ความเข้าใจควอนตัมที่ดีที่สุดมาจากการเรียนรู้ตัวทฤษฎีก่อน นี่เป็นสิ่งที่คนเรียนฟิสิกส์ใช้เวลาเป็นปีๆกับมัน ซึ่งคนทั่วไปที่ไม่มีความจำเป็นต้องใช้มันไม่สามารถให้เวลากับมันขนาดนั้นได้ Carl Sagan เชื่อว่าไม่มี popularization ที่ดีก็เพราะเหตุนี้ แต่ในปัจจุบันผมเชื่อว่าแก่นของมันสามารถอธิบายได้ไม่ยากเกินไป (ไม่ต้องใช้แคลคูลัส) นี่เป็นสิ่งที่ผมพยายามทำในทฤษฎีควอนตัมใน 10 นาที เริ่มด้วยแก่นของทฤษฎีแล้วค่อยไปยังตัวอย่าง

Popularization ส่วนใหญ่มีแต่ตัวอย่างและการตีความ ซึ่งไม่ใช่สิ่งที่ไม่ดี สิ่งที่ไม่ดีคือการตีความมักจะ “เหลือเชื่อ” (extraordinary) ในขณะที่ตัวอย่างที่ยกมาไม่จำเป็นต้องถูกตีความแบบนั้น ดังที่ Sagan เคย popularize เอาไว้ “Extraordinary claim requires extraordinary evidence.” การตีความที่เหลือเชื่อต้องการหลักฐานที่เหลือเชื่อ ถึงจุดนี้ Popularizer ก็จะไม่ลืมที่จะบอกว่าทฤษฎีควอนตัมมีหลักฐานที่เหลือเชื่อรองรับ แต่หลักฐานรองรับทฤษฎีควอนตัมไม่ได้รองรับการตีความของทฤษฎีควอนตัม

เราอาจจะบอกว่ามันเป็นความเลินเล่อของ popularizer ก็ได้ แต่ผมคิดว่าเป็นไปได้ที่ popularizer ไม่คิดว่าความผิดพลาดที่กล่าวมาเป็นความผิดพลาด ทฤษฎีควอนตัมมีปรากฎการณ์ที่ไม่สามารถใช้สามัญสำนึกในการเข้าใจได้ซึ่งนำไปสู่การตีความที่เหลือเชื่อ ถ้าคิดว่าทฤษฎีเดียวตีความได้แบบเดียวก็ต้องใช้การตีความอย่างเหลือเชื่อกับทุกตัวอย่าง ถึงแม้ว่าตัวอย่างที่ยกมาโดดๆจะไม่จำเป็นต้องถูกตีความแบบนั้น

ทฤษฎีเดียวอาจจะตีความได้แบบเดียว แต่ปรากฎการณ์หนึ่งๆตีความได้หลายแบบ การเปรียบเทียบทฤษฎีควอนตัมและทฤษฎีความน่าจะเป็นเป็นเครื่องมืออย่างดีที่จะตรวจจับกับดักทางความคิดแบบนี้ มาดูตัวอย่างกัน

ซูเปอร์โพสิชันและเอนแทงเกิลเมนต์

นี่เป็นวิดีโอที่ผมอยากจะชอบเพราะแมวน่ารักแต่ก็ชอบไม่ลง

ตัวอย่าง แมวในกล่องมีโอกาส 50% ที่จะมีชีวิตอยู่และ 50% ที่จะตาย

การตีความที่เหลือเชื่อ  แมวไม่ได้ทั้งเป็นหรือตาก่อนที่เราจะเปิดกล่องดู (อนุภาคอยู่ในหลายๆที่ในเวลาเดียวกัน)

การตีความตามสามัญสำนึก แมวเป็นหรือตายตั้งแต่ก่อนเราเปิดกล่องดูแล้ว (การตีความที่เหลือเชื่อขัดกันเองกับตอนต้นของวิดีโอที่บอกไว้ว่าพฤติกรรมของสิ่งของในสเกลของชีวิตประจำวันเป็นไปตามกลศาสตร์ดั้งเดิม แล้วทำไมถึงใช้ทฤษฎีควอนตัมกับแมวกับระเบิดในกล่องล่ะ?)

ตัวอย่าง ถ้าแมวในกล่องหนึ่งมีชีวิต แมวอีกกล่องก็จะตาย ไม่ว่ากล่องสองกล่องจะอยู่ห่างกันแค่ไหน

การตีความที่เหลือเชื่อ  เป็นปรากฎการทางควอนตัมเรียกว่าเอนแทงเกิลเมนต์

การตีความตามสามัญสำนึก ถ้าระเบิดลูกนึงทำงาน ระเบิดลูกนึงด้าน แต่ไม่รู้ว่าลูกไหนทำงานลูกไหนด้าน แมวในกล่องหนึ่งก็จะรอด แมวอีกกล่องก็จะตาย ไม่ว่ากล่องสองกล่องจะอยู่ห่างกันแค่ไหน

อนุภาคเป็นคลื่น

ตัวอย่าง ความน่าจะเป็นที่จะพบอนุภาคที่ตำแหน่งต่างๆคำนวณจากฟังก์ชันที่เดินทางเหมือนคลื่น

การตีความที่เหลือเชื่อ  เพื่อที่จะหลีกเลี่ยงการตีความว่าอนุภาค “อยู่ในสองที่ในเวลาเดียวกัน” เหมือนในวิดีโอแมว (ซึ่งนายกแคนาดา Justin Trudeau ไม่ตกหลุมพรางนี้!) วิดีโอนี้บอกว่ามีคลื่นที่กำหนดความน่าจะเป็นที่จะพบอนุภาคได้ที่ตำแหน่งใดตำแหน่งหนึ่งโดยการไกด์อนุภาคไปตามที่ต่างๆ

การตีความตามสามัญสำนึก อนุภาคคืออนุภาค ความน่าจะเป็นคือความน่าจะเป็น การที่เราไม่รู้ว่าอนุภาคอยู่ที่ไหน รู้แค่ความน่าจะเป็น ไม่ได้หมายความว่าอนุภาคเป็นความน่าจะเป็นหรือความน่าจะเป็นเป็นสิ่งทางกายภาพที่ไกด์อนุภาคไปตามที่ต่างๆ

ความไม่แน่นอนของ Heisenberg

ตัวอย่าง การบาลานซ์ดินสอบนหัวดินสอ [1]

การตีความที่เหลือเชื่อ ความไม่แน่นอนของ Heisenberg จำกัดว่าเราจะบาลานซ์ได้นานเท่าไรก่อนที่ดินสอจะล้ม (แถมยังใช้ความไม่แน่นอนระหว่างมุม-โมเมนตัมเชิงมุม \Delta \theta \Delta L \ge \frac{\hbar}{2} ที่ผิดอีก เพราะ \Delta L = 0 ในทุกๆ eigenstate ของโมเมนตัมเชิงมุม)

การตีความตามสามัญสำนึก การบาลานซ์ดินสอบนหัวดินสอเป็นสมดุลที่ไม่เสถียร การรบกวนเพียงนิดเดียวเช่นจากโมเลกุลอากาศในอุณหภูมิมากกว่า 0 K ก็อาจทำให้มันล้มได้


นี่ไม่ใช่ปัญหาของคนฟัง popularizer อย่างเดียวแต่เป็นปัญหาของนักวิจัยด้วย การที่ D-Wave อธิบายการทำงานของคอมพิวเตอร์ตัวเองด้วยทฤษฎีควอนตัมไม่ได้แปลว่ามันเป็นควอนตัมคอมพิวเตอร์ (ไม่สามารถอธิบายด้วยทฤษฎีดั้งเดิมได้) การที่พฤติกรรมบางอย่างของหยดของเหลวอธิบายได้ด้วยการตีความของทฤษฎีควอนตัมที่คลื่นไกด์อนุภาคไม่ได้แปลว่ามันสนับสนุนการตีความนั้น (เพราะหยดของเหลวไม่ใช่โมเดลของทฤษฎีควอนตัม ตรงข้ามกับที่ Ross Anderson ผู้ที่เคยพิสูจน์ (มั่วๆ) มาแล้วว่าเอนแทงเกิลเมนต์ของหลายอนุภาคเป็นไปไม่ได้ พยายามจะพิสูจน์)

อย่าด่วนตีความแบบควอนตัมถ้าไม่จำเป็น

[1] Don Easton, “The quantum mechanical tipping pencil — a caution for physics teachers” European Journal of Physics 28 1097–1104 (2007)

บัญญัติสิบประการ

  1. ข้าคือทฤษฎีควอนตัม [1] ทฤษฎีของเจ้า
  2. ห้ามมีทฤษฎีอื่นใดนอกเหนือจากข้า ทฤษฎีควอนตัมไม่ได้ใช้ได้กับระบบเล็กๆเท่านั้น
  3. ห้ามกล่าวถึงทฤษฎีควอนตัมเมื่อไม่จำเป็น ห้ามบอกว่าก่อนการวัดไม่มีผลการวัด, มีการสื่อสารเร็วกว่าแสง, หรือโลกแยกเป็นโลกคู่ขนานเมื่ออธิบายปรากฎการณ์ด้วยทฤษฎีดั้งเดิมได้ ห้ามบอกว่ามีควอนตัมคอมพิวเตอร์เมื่อพิสูจน์ให้ประจักษ์ชัดไม่ได้
  4. จงระลึกถึง |\psi \rangle ถือเป็นสถานะบริสุทธิ์
  5. จงให้เกียรติแก่ทฤษฎีดั้งเดิมที่บิดามารดาของเจ้าใช้ คอนเซปต์ของสมมาตร, Lagrangian, Hamiltonian เป็นสิ่งตกทอดมาจากทฤษฎีดั้งเดิม
  6. ห้ามฆ่าสัตว์โดยการ collapse สถานะควอนตัม
  7. ห้ามล่วงประเวณี เอนแทงเกิลกับผู้อื่นเกินกว่าที่ทฤษฎีควอนตัมกำหนด
  8. ห้ามลักขโมยพลังงานจากสุญญากาศมาสร้างอนุภาคเสมือน (virtual particle) โดยอ้างความไม่แน่นอนระหว่างเวลา-พลังงาน เพราะอนุภาคเสมือนเป็นเครื่องมือในการคำนวณแบบ perturbative เท่านั้น
  9. ห้ามเป็นพยานเท็จ อ้างว่าเหตุการณ์เกิดขึ้นก่อนที่เหตุการณ์จะถูกบันทึกอย่าง (กึ่ง) ถาวรด้วย decoherence
  10. ห้ามอิจฉา อยากมี อยากได้สถานะควอนตัมของผู้อื่น ทฤษฎีบท no-cloning จะหยุดเจ้า

[1] รวมไปถึงทฤษฎีควอนตัมของแรงโน้มถ่วง

แตกเวกเตอร์ด้วยการคูณด้วยหนึ่ง

ONB (Orthonormal basis) \{|e_i\rangle \} ช่วยให้เราแตกเวกเตอร์ได้ง่ายๆ เทคนิคหนึ่งที่คนเรียนควอนตัมจะคุ้นเคยก็คือการเขียนเมทริกซ์เอกลักษณ์ \hat{1} ในรูป

\hat{1}=\sum_i |e_i \rangle \langle e_i|

เรียกว่า completeness หรือ closure relation (แต่ไม่เกี่ยวกับความสมบูรณ์ของปริภูมิ Hilbert)  แล้วเวลาจะแตกเวกเตอร์อะไรเราก็แค่คูณหนึ่งเข้าไป

|u\rangle  = \hat{1} |u\rangle =  \sum_i  \langle e_i|u\rangle |e_i \rangle

ทริคนี้ที่เรียกกันว่า “insert the identity” ยังใช้ในการเขียนทฤษฎีควอนตัมในรูป path integral ของ Feynman อีกด้วย

คำถามก็คือเมื่อไรบ้างที่เราสามารถแตกเวกเตอร์ด้วยทริคนี้ได้? เคสหนึ่งที่เช็คได้ง่ายก็คือความสัมพันธ์นี้ไม่เป็นจริงเสมอไปสำหรับฐานที่ไม่ตั้งฉากกัน แต่ก็มีตัวอย่างของ spanning set ที่ไม่ใช่ฐาน(เพราะมันมีจำนวนมากเกินไป ซึ่งทำให้ไม่ตั้งฉากกันด้วย) คือสถานะอาพันธ์ (coherent states) ในทฤษฎีควอนตัม เหตุผลมาจาก representation theory ซึ่งถ้าใครไม่สันทัดก็ข้ามได้

กำหนดให้ |0\rangle เป็นเวกเตอร์ใน V และให้ U(g) เป็น irrep ใน V ของกรุ๊ป G

|g\rangle = U(g)|0\rangle

เป็น generalization ของสถานะอาพันธ์(ที่มี Heisenberg group เป็น G) เราต้องการแสดง (ถ้า G มี measure dg ที่เหมาะสมกับการใช้อินติเกรตได้) ว่า

J:=\int dg |g\rangle \langle g| = \int dg U(g) |0\rangle \langle 0|U^{\dagger}(g)

เป็นสัดส่วนกับ \hat{1}

สังเกตว่า J อยู่ใน HomG(V,V) เพราะ J commutes กับทุกๆ U(g) Schur’s lemma บอก (ใน algebraicly closed field เช่นจำนวนเชิงซ้อน) ว่าถ้า U(g) เป็น irrep แล้ว HomG(V,V) จะเป็นปริภูมิหนึ่งมิติ ทุกอย่างใน HomG(V,V) จะเป็นสัดส่วนกับ \hat{1}

พอมาคิดดูแล้วก็น่าสนใจว่านี่ไม่ใช่เหตุของ completeness relation ของ ONB เพราะกรุ๊ปที่สับเปลี่ยนเวกเตอร์ฐานใน ONB เป็น abelian group (เช่น Pauli X สำหรับ Z basis) จึงไม่มีทางมี irrep ในมิติของปริภูมิที่มากกว่าหนึ่งได้ (ซึ่งก็สาเหตุมาจาก Schur’s lemma เช่นกันเพราะทุกๆ U(g) ของ abelian group อยู่ใน HomG(V,V))

ผมจะลองตอบคำถามนี้ในมิติ d<\infty

Tight frames

การที่เวกเตอร์จะมารวมกันเป็นเอกลักษณ์ในทั้งปริภูมิเวกเตอร์ได้อย่างน้อยมันจะต้องแผ่ทั่วปริภูมิ

เซตของเวกเตอร์ \{|\phi_i\rangle \} ใน V เป็นเฟรม (frame) ของ V ก็ต่อเมื่อมีจำนวนจริง 0<a\le b เรียกว่า frame bounds และ

a\langle u|u\rangle \le \sum_i |\langle \phi_i|u\rangle |^2 \le b\langle u|u\rangle

สำหรับทุกๆ u ใน V ลองจ้องมันดูจะพบว่าเฟรมก็คือ spanning set นั่นเอง ถ้า \{|\phi_i\rangle \} ไม่แผ่ทั่วก็จะมีเวกเตอร์ที่ตั้งฉากกับทุกๆ |e_i\rangle อยู่ frame bound ก็จะเท่ากับศูนย์ ขัดแย้งกับนิยาม

นี่เป็นการ relax Parseval’s identity (เมื่อ a=b=1) ถ้านิยาม frame operator F = \sum_i |\phi_i\rangle \langle \phi_i| เงื่อนไขข้างต้นก็จะกลายเป็น [1]

a\hat{1} \le F \le b\hat{1}

เฟรมที่ frame bound ทั้งจากข้างล่างและข้างบนเท่ากันเท่านั้นที่จะให้ F = a\hat{1} ตามที่ต้องการ เฟรมประเภทนี้เรียกว่า tight frame

ในครั้งหน้าเราจะพูดถึงการแปลงเฟรมที่มีอยู่ให้เป็น tight frame

คำถามปลายเปิด

เกิดอะไรขึ้นได้บ้างใน d=\infty ธีสิสของ Joseph Renes บอกว่ามี spanning set ที่มี frame bound เป็นศูนย์ ผมไม่รู้ด้วยซ้ำว่าการแผ่ทั่วใน d=\infty แปลว่าอะไร ใครรู้ช่วยบอกหน่อย


 

[1] นี่ไม่ได้หมายความว่า F เป็นสัดส่วนกับ \hat{1} มันหมายความแค่ว่า F - a\hat{1} เป็น positive semidefinite matrix ตัวอย่างหนึ่งก็คือ |0\rangle ,|1\rangle ,|0\rangle + |1\rangle ในสองมิติ ถ้าให้ a=1

F-\hat{1} = \left( \begin{array}{cc} 1 & 1 \\ 1 & 1\end{array}\right) = \hat{1} + X

ซึ่งเป็นสองเท่าของ ODOP และไม่ใช่เอกลักษณ์

เวกเตอร์, ดูอัลเวกเตอร์ และสัญกรณ์ Dirac (อ่านโพสท์นี้ถ้าอ่านโพสท์อื่นไม่รู้เรื่อง)

Why are vector spaces like potato chips? Because you cannot have just one.

W. Kahan

ผมพูดถึงควอนตัมอยู่บ่อยๆในบล็อกนี้ วัตถุทางคณิตศาสตร์ที่สำคัญมากในควอนตัมคือเวกเตอร์ เพื่อความสะดวกในการเขียน (และการอ่าน เพราะไม่ต้องอธิบายยืดยาวซ้ำแล้วซ้ำอีก) ในโพสท์นี้ผมอยากจะพูดถึงเวกเตอร์ที่ทุกคนคงรู้จักแต่อาจจะยังรู้จักไม่ดีพอ, ดูอัลเวกเตอร์คู่หูที่ถูกลืมของเวกเตอร์, และวิธีเขียนเวกเตอร์ ดูอัลเวกเตอร์ และทุกสิ่งที่ประกอบกันขึ้นมาจากสองสิ่งนี้ของ Paul Dirac ที่เรียกว่าสัญกรณ์ Dirac (คำนี้ผมตั้งขึ้นมาเอง มาจาก Dirac notation)

ปริภูมิเวกเตอร์
ปริภูมิดูอัล
สัญกรณ์ Dirac
สถานะควอนตัม
Density operators, แรงค์, และเทรซ

เรามักจะรู้จักเวกเตอร์กันในสองหน้าตา ลูกศรที่มีความยาวและทิศทาง กับตัวเลขที่เรียงเป็นแถว สองคอนเซปต์นี้มีข้อดีข้อเสียที่ต่างกันออกไป แต่มันเป็นตัวแทนของเวกเตอร์เท่านั้น ผมจะพูดถึงเวกเตอร์จริงๆในรูปนามธรรม โดยการพูดถึงที่อยู่อาศัย บ้านของเวกเตอร์ กับฐานของบ้านก่อน

ปริภูมิเวกเตอร์

บ้านของเวกเตอร์เรียกว่าปริภูมิเวกเตอร์ (vector space) มักจะแทนด้วยตัวอักษร V บ้านในที่นี้หมายถึงคนในบ้านมากกว่าบ้านเลขที่ เหมือนคำกล่าวที่ว่าประเทศคือประชาชน ไม่ใช่เขตแดน ปริภูมิเวกเตอร์เป็นเซตของวัตถุที่ทำตามกฏหนึ่ง กฏก็คือเมื่อคุณวัตถุด้วยตัวเลข (ซึ่งเลือกได้ เช่นจะให้เป็นจำนวนจริงหรือจำนวนเชิงซ้อน แต่เมื่อเลือกแล้วจะเปลี่ยนไม่ได้) หรือเอาวัตถุไปรวมกับวัตถุอื่นในเซต ผลที่ออกมาจะไม่ออกนอกเซต ไม่ออกนอกบ้าน วัตถุที่ทำตามกฏนี้เรียกว่าเวกเตอร์  จำไว้ว่าการคูณด้วยตัวเลขกับการบวกกันเองเป็นการการกระทำการพื้นฐานที่ทำได้กับเวกเตอร์

อาจจะมีเวกเตอร์จำนวนอนันต์อยู่ในบ้านหลังหนึ่ง ไอเดียที่สำคัญก็คือเราสามารถเลือกเวกเตอร์หยิบมือหนึ่งมาเป็นตัวแทนของทุกเวกเตอร์ได้ เราเรียกเซตของเวกเตอร์นี้ว่าฐานหรือเบสิส (basis) เหมือนรากฐานของบ้าน มีฐานก็ต่อเป็นบ้านได้ สมาชิกของเซตนี้เราเรียกว่าเวกเตอร์ฐาน (basis vector) ฐานเป็นตัวแทนของทุกๆเวกเตอร์ในบ้านเพราะนิยามดังต่อไปนี้

  1. ไม่ว่าเราจะเลือกเวกเตอร์ไหนในบ้าน เราสามารถเขียนมันในรูปผลรวมของเวกเตอร์ที่มาจากการจับสมาชิกในฐานคูณกับตัวเลขได้ ผลรวมนี้มีชื่อเป็นทางการว่าผลรวมเชิงเส้น (linear combination) (เชิงเส้นเพราะไม่มีการยกกำลัง)
  2. ผลรวมเชิงเส้นที่ต่างกันเป็นตัวแทนของเวกเตอร์ที่ต่างกัน

จากสองข้อกำหนดนี้เราสามารถพิสูจน์ได้ว่าถึงแม้จะมีหลายเซตที่ใช้เป็นฐานของบ้านได้ แต่ทุกๆเซตจะมีจำนวนสมาชิกเท่ากัน เราเรียกจำนวนนี้ว่ามิติ (dimension) ซึ่งมักจะแทนด้วยตัวอักษร d คำว่ามิตินี้ตรงกับความหมายของคำว่ามิติเมื่อเรามองเวกเตอร์เป็นลูกศร ทำให้คิดถึงปริภูมิเวกเตอร์ในเชิงเรขาคณิตได้

ปริภูมิย่อย (subspace) เป็นบ้านที่อยู่ในบ้านอีกที เช่นเส้นตรง (หนึ่งมิติ) อยู่ในระนาบ (สองมิติ) ซึ่งอยู่ในปริภูมิสามมิติ กว้าง, ยาว, สูงอีกที ในสัมพัทธภาพพิเศษก็มีมิติเวลาเพิ่มมาอีกหนึ่งมิติ

แต่มิติไม่จำเป็นต้องมีความเกี่ยวข้องมิติทางกายภาพ ในสถิติ, machine learning, หรือทฤษฎีควอนตัมเราสามารถมีข้อมูลเป็นเวกเตอร์ในมิติสูงๆได้ ใครที่อยากทำเรื่องพวกนี้ก็ต้องใช้เวกเตอร์ทั้งนั้น

บางครั้งเราก็ต้องการเซตของเวกเตอร์ที่ใหญ่กว่าฐาน เวกเตอร์ใดๆก็ยังเขียนในรูปผลรวมเชิงเส้นของเซตนี้ได้ เราใช้คำว่าเซ็ตนี้แผ่ทั่ว (span) ปริภูมิหรือเซตนี้เป็น spanning set เพียงแค่ว่าเวกเตอร์หนึ่งอาจจะมีได้หลายตัวแทน (คือตัดข้อสองในนิยามด้านบนออกไป)

ปริภูมิดูอัล

เมื่อใดก็ตามที่มีปริภูมิเวกเตอร์ V เราสามารถสร้างเซตอีกเซตหนึ่งขึ้นมาได้ สมาชิกของเซตนี้เป็นเครื่องจักรที่จะคายตัวเลขออกมาเมื่อป้อนเวกเตอร์ใน V ให้มันโดย “เคารพโครงสร้างของ V” กล่าวคือถ้าได้ a เมื่อป้อนเวกเตอร์ u และได้ b เมื่อป้อนเวกเตอร์ v จะต้องได้ a+b เมื่อป้อน u+v

ปรากฎว่าเซตของเครื่องจักรนี้ก็เป็นปริภูมิเวกเตอร์เหมือนกัน เป็นคู่หู (ในเงามืดที่ไม่ค่อยมีใครรู้จัก) ของ V เรียกว่าปริภูมิดูอัล (dual space) ของ V เขียนแทนด้วย V* สมาชิกของมันเรียกว่าดูอัลเวกเตอร์

หาก d \neq \infty แล้ว V** = V บ้านของเวกเตอร์จึงมาเป็นคู่ๆ (ไม่ใช่บ้านเดี่ยวหรือทาวน์เฮาส์)

สัญกรณ์ Dirac

จะเห็นว่าถ้าไม่เขียน u เป็นลูกศรหรือตัวเลขเรียงกันเป็นแถวก็จะบอกได้ยากว่าเป็นเวกเตอร์ (หรือตัวเลขหรือดูอัลเวกเตอร์) นักฟิสิกส์ Paul Dirac มีวิธีแก้โดยการใช้สัญกรณ์ที่อสมมาตร ถ้าเป็นเวกเตอร์ให้เขียนในรูป |u\rangle  เรียกว่า ket ถ้าเป็นดูอัลเวกเตอร์ให้เขียนในรูป \langle v|  เรียกว่า bra (จริงๆบนล่างซ้ายขวาไม่สำคัญ ขอให้สัญลักษณ์ของเวกเตอร์ตรงข้ามกับของดูอัลเวกเตอร์ก็พอ) พอเอาก้นมาชนกันจะได้ตัวเลขออกมา \langle v|u \rangle = a เป็น bra(c)ket เพราะดูเหมือนเอาวงเล็บมาปิดครอบ แต่ถ้าเขียน |u\rangle \langle v| แปลว่ารอไปชนกันคนอื่นได้ทั้งซ้ายและขวา เพราะฉะนั้นเราจะคำนวณได้ทุกอย่างถ้ารู้ \langle u|v\rangle ของทุกๆเวกเตอร์ u และ v แต่เรารู้แล้วนี่ว่าทุกๆเวกเตอร์มีตัวแทนในรูปของฐาน ดังนั้นเรารู้ \langle u|v\rangle ของทุกๆเวกเตอร์ฐานก็เพียงพอแล้ว

ถ้า u และ v มาจากปริภูมิเดียวกันจะเอาด้านแหลมไปทิ่มก้นอีกคนไม่ได้ ถ้าเห็นใครเขียน |u\rangle |v\rangle เขามักจะหมายถึง |u\rangle \otimes |v\rangle ในปริภูมิเวกเตอร์ที่เป็นผลคูณเทนเซอร์ (tensor product) ระหว่างปริภูมิที่ u และ v อาศัยอยู่

การคูณระหว่างเวกเตอร์ในปริภูมิเดียวกันอย่างการคูณจุด (dot product) นั้นจะต้องนิยามการคูณภายใน (inner product) ซึ่งทำงานโดยการ identify เวกเตอร์ใน V และ V* เข้าด้วยกัน จับคู่ |u\rangle กับ \langle u| แล้วจึงบอกว่าผลคูณจุดระหว่าง u กับ v ในปริภูมิเดียวกันเท่ากับ \langle u|v\rangle  ปริภูมิที่มีการคูณภายในเรียกว่าปริภูมิ Hilbert (Hilbert space) [1]

ฐานที่สะดวกในการใช้คือฐานที่ตั้งฉากกัน (orthogonal basis ย่อว่า OB) \{|e_i\rangle \}

\langle e_i|e_j \rangle = 0 หาก i\neq j

ที่อำนวยความสะดวกยิ่งขึ้นคือฐานที่ตั้งฉากกันและ normalized (orthonormal basis ย่อว่า ONB) คือ OB ที่

\langle e_i|e_i\rangle = 1

กลับมายังประเด็นที่เปิดไว้ตอนต้น เวกเตอร์ในสัญกรณ์ Dirac จะคล้ายกับเวกเตอร์ที่เป็นลูกศรมากกว่าเพราะไม่ต้องมีฐาน เพียงแต่เราใช้ได้ในมิติที่สูงกว่า 3 มิติ (ซึ่งมองเป็นภาพไม่ออกแล้ว) ในขณะที่การจะเขียนเวกเตอร์เป็นตัวเลขเรียงกันเป็นแถวจะต้องกำหนดฐานให้แน่นอน ตัวเลขที่ถูกจับมาเรียงเป็นแถวเหล่านี้คือสัมประสิทธิ์

\langle e_i|u\rangle

ซึ่งต้องรู้ฐาน \{\langle e_i| \} ก่อน ถ้ามีใครมาถามทางแล้วเราบอกไปทาง (1,1) ก็จะไม่มีใครรู้เรื่องถ้าไม่บอกว่า 1 ตัวแรกกับ 1 ตัวที่สองบอกทิศไหน

สถานะควอนตัม

ในควอนตัมเรามีสถานะควอนตัม (quantum state) หรือสถานะบริสุทธิ์ (pure states) |\psi \rangle (ѱ ไม่ได้มีความหมายพิเศษอะไรแค่นิยมใช้กัน) เป็นเวกเตอร์ในปริภูมิ d มิติของจำนวนเชิงซ้อน \mathbb{C}^d  ส่วนฟังก์ชันคลื่น (wave function) คือสัมประสิทธิ์ของสถานะควอนตัมในฐานหนึ่งๆ เช่นตำแหน่ง \{|x\rangle \} ใน d=\infty

\langle x|\psi \rangle = \psi (x)

การรวมกันของเวกเตอร์ในปริภูมินี้เรียกว่าซูเปอร์โพสิชัน (superposition)

สถานะควอนตัม normalized เมื่อ \langle \psi|\psi \rangle = 1

Density operators, แรงค์, และเทรซ

อีกตัวอย่างของปริภูมิเวกเตอร์ที่สำคัญในควอนตัมคือปริภูมิ \mathbb{H}^d ของ Hermitian matrices ขนาด d คูณ d ปริภูมินี้เป็นปริภูมิ d^2 มิติของจำนวนจริง Density operators อาศัยอยู่ในปริภูมินี้แต่ไม่ใช่ทุกเวกเตอร์ในปริภูมินี้เป็น density operator [2]

การรวมกันของ density operators ในปริภูมินี้ (ที่ให้อีก density operator ออกมา) เรียกว่าการผสม (mixing)

สถานะควอนตัมก็อาศัยอยู่ในปริภูมินี้ในฐานะเมทริกซ์ที่มีแรงค์ (rank) 1. แรงค์ของเมทริกซ์ A คือจำนวนน้อยที่สุดของเวกเตอร์ฐาน \{ |e_i\rangle \} ที่ใช้เขียน A ในรูปผลบวก A = \sum_i |e_i\rangle \langle e_i| ได้ ข้อควรระวังคือเซตของสถานะควอนตัมไม่ใช่ปริภูมิย่อยของ \mathbb{H}^d เพราะการรวมเวกเตอร์ในปริภูมินี้ไม่เหมือนกับการรวมเวกเตอร์ในปริภูมิของสถานะควอนตัม (การผสมไม่ใช่ซูเปอร์โพสิชัน ทำให้แรงค์มากขึ้นได้)

Density operators \rho  normalized เมื่อเทรซ (trace) \text{Tr}(\rho) = 1. เทรซของเมทริกซ์คือผลรวมของเลขในแนวทแยง (diagonal) ของมัน ถ้าชอบมากกว่า นิยามที่ไม่ขึ้นกับฐานที่เลือกคือ \text{Tr}(|u\rangle \langle v|) = \langle v|u \rangle เพราะฉะนั้นการที่บอกว่าสถานะควอนตัม |\psi \rangle normalized หรือ rank-1 density operator |\psi \rangle \langle \psi | ก็มีความหมายไม่ต่างกัน

เมื่อพูดถึง rank-1 trace-1 operator นอกเหนือบริบทของสถานะควอนตัม ผมจะใช้คำย่อที่ adviser ผมชอบใช้คือ ODOP (one-dimensional orthogonal projection) ไม่งั้นคำจะยาวมาก

เมื่อแรงค์เท่ากับจำนวนมิติ d ผมจะใช้คำว่า full rank เมทริกซ์ full rank คือเมทริกซ์ที่ผันกลับได้ (มีอินเวิร์ส)

[1] ถ้า d=\infty ปริภูมิจะเป็นปริภูมิ Hilbert ได้ก็ต่อเมื่อมัน “สมบูรณ์” (complete) ด้วยคือทุกลำดับ (sequence) ต้องลู่เข้าสู่เวกเตอร์ในปริภูมิเอง ถ้าลู่ออกนอกปริภูมิก็เหมือนปริภูมิมีรู ถ้าอุดรูหมดปริภูมิก็สมบูรณ์

[2] Density operator จะต้องเป็น positive semidefinite matrix ซึ่งเป็นแค่กรวย (cone) ในปริภูมินี้ (กรวยไม่ใช่ปริภูมิเวกเตอร์) 

ระบบปิดทางข้อมูล: รีวิวหนังสือ Quantum Processes, Systems and Information (ตอน 1)

รูปโดย TACLUDA

“ข้อมูล” เป็นคอนเซปต์ที่สำคัญในการจัดระเบียบความเข้าใจของควอนตัม ยกตัวอย่างของการทดลองยิงอนุภาคอย่างอิเล็กตรอนหรือนิวตรอนผ่านช่องคู่ ในควอนตัมเรารู้ว่ารูปแบบการตกของอนุภาคบนฉากหลังเหมือนกับรูปแบบการแทรกสอดของคลื่น คือเป็นริ้ว (fringe) มีจุดบัพ (node) ที่อนุภาคไปตกมากและปฏิบัพ (antinode) ที่ไม่มีอนุภาคไปตกสลับกันไป แต่หากเราทำการวัดว่าอนุภาควิ่งผ่านช่องไหน (มีข้อมูล “which-way” หรือ “welcher-weg“) การแทรกสอดก็จะหายไป อนุภาคจะตกกันไปกองอยู่หลังช่องไม่ต่างกับเวลาเราโยนลูกบอลผ่านหน้าต่างแทน นี่คืออนิเมชันที่เปรียบเทียบการเดินทางผ่านช่องคู่ของลูกบอล, แสง, และอนุภาคควอนตัมทั้งที่ไม่มีและมีการวัด

เหนือกว่านั้นเรายังสามารถ “ยกเลิก” การวัด “คืน” ข้อมูลให้กับระบบและทำให้การแทรกสอดกลับมาได้ การตัดสินใจที่จะทำการวัดหรือไม่นี้เกิดหลังจากที่อนุภาคผ่านช่องคู่ไปแล้วหรือแม้กระทั่งหลังจากทำการทดลองทุกอย่างเสร็จแล้วก็ยังได้  (“Delayed choice quantum eraser“) หลายคนสับสนกับการทดลองนี้ แต่ทุกอย่างสามารถเข้าใจได้จากคณิตศาสตร์ของทฤษฎีควอนตัม ไม่ต้องมีการส่งสัญญาณย้อนเวลา ไม่ต้องมีจิตมนุษย์เข้ามาเกี่ยวข้อง

Quantum Processes, Systems and Information หรือ QPSI ของ Benjamin Schumacher กับ Michael Westmoreland เป็นตำราควอนตัมเล่มแรกที่ใช้คอนเซปต์ของข้อมูลเป็นแก่นที่เชื่อมต่อเนื้อหาต่างๆของควอนตัมทั้งเล่ม เป็นหนังสือที่ค่อนข้างใหม่ ตีพิมพ์เมื่อ 2010 (ยังไม่มีตอนผมเริ่มเรียนควอนตัม) เพราะมุมมองนี้เพิ่งจะจุดติดในฟิสิกส์จากการเติบโตของสาขาสารสนเทศควอนตัมที่เพิ่งมีมาได้ 20 กว่าปีเท่านั้นเอง และ QPSI ก็ไม่ได้แค่มีมุมมองใหม่แต่ยังอธิบายคอนเซปต์ทั้งที่ไม่มีในตำราอื่นและทั้งที่มีในตำราอื่นได้ดีอีกด้วย (อาจจะดีกว่าตำราอื่นด้วยซ้ำ เราจะพูดถึง Introduction to Quantum Mechanics ของ David Griffiths ที่เป็นที่นิยมในโพสท์อื่น)

ผมคิดว่า QPSI ไม่ใช่แค่หนึ่งในหนังสือควอนตัมที่ดีที่สุด แต่ยังเป็นหนังสือควอนตัมเบื้องต้นที่ดีที่สุด ผมมีหนังสืออีกเล่ม Quantum Mechanics : A Modern Development ของ Leslie Ballentine ที่เป็นหนังสือควอนตัมที่คิดอย่างมีวิจารณญาณมากที่สุด แต่ Ballentine ไม่ใช่หนังสือเริ่มต้น และเราเชื่อว่าบทที่ 9 ของ Ballentine (“Measurement and the Interpretation of States”) ซึ่งเป็นบทเดียวที่มีปัญหา (และตามมาสร้างปัญหาในหัวข้อย่อยเกี่ยวกับ quantum Zeno effect ภายหลัง) จะกระจ่างขึ้นถ้า Ballentine พูดถึง quantum channels เหมือน QPSI (เราอาจจะพูดถึงหนังสือเล่มนี้ในโพสท์อื่นอีกเหมือนกัน)

ธีมหลักของหนังสือเล่มนี้คือพฤติกรรมควอนตัมอย่างการแทรกสอดจะเกิดขึ้นได้อย่างสมบูรณ์ก็เมื่อระบบประมาณได้เป็นระบบปิดทางข้อมูลซึ่งดำเนินไปในเวลาแบบ unitary (ด้วยสมการ Schrödinger)

ทฤษฎีบท เมื่อไรก็ตามที่ “ข้อมูลรั่วไหล” ออกจากระบบจากการที่ปฏิสัมพันธ์กับระบบอื่นทิ้งร่องรอยไว้ให้เราสามารถเรียนรู้อะไรบางอย่างเกี่ยวกับระบบโดยการพิจารณาระบบอื่นได้ (เช่นแสงที่ตกยังเรตินาเป็นระบบอื่นที่ทำหน้าที่เป็นตัวกลางบอกเราว่าสิ่งที่อยู่ต่อหน้าเรากำลังทำอะไรอยู่) การเปลี่ยนแปลงของระบบก็จะไม่ unitary อีกต่อไป

ทฤษฎีบทนี้ (“ทฤษฎีบท” ตัวหนาจะหมายถึงทฤษฎีบทหลักนี้เสมอ) เป็นตัวแทนของหลักการเติมเต็มซึ่งกันและกัน (complementarity) หรือทวิภาวะของคลื่นและอนุภาค (wave-particle duality) ของ Bohr ในสมัยใหม่ มันนำไปสู่ความเข้าใจว่าการวัดคืออะไร, ทำไมสิ่งต่างๆรอบตัวเราสูญเสียความเป็นควอนตัม ไม่ประพฤติตัวแบบควอนตัมให้เราเห็น และยังไปเกี่ยวโยงกับทฤษฎีบทพื้นฐานๆในสารสนเทศควอนตัมอย่างทฤษฎีบท no-cloning ซึ่งทั้งหมดนี้แทบจะไม่ถูกกล่าวถึงในตำรากลศาสตร์ควอนตัมเล่มอื่นๆเลย (แม้แต่ Ballentine) ซึ่งทำให้ทฤษฎีควอนตัมดูพิศวงมากกว่าที่ควรจะเป็น (เหมือนที่ผมเคยไปตอบไว้ที่ Physics Forums)

QPSI อาจจะแบ่งได้เป็นสามส่วน บทที่ 1-9 เป็นตัวทฤษฎีรวมถึงความหมายของคำว่าข้อมูลควอนตัมและวิธีอธิบายระบบที่สัมพันธ์กับระบบภายนอก (density operators, quantum channels, POVM) เอาไปใช้ในการศึกษาระบบเปิดและอุณหพลศาสตร์ควอนตัม บทที่ 10-17 เป็นระบบใน infinite dimensional Hilbert space ของอนุภาคที่เคลื่อนที่ใน 1 และ 3 มิติที่เรียนกันตามปกติอย่างอะตอมไฮโดรเจน (แต่ไม่มีเรื่องตารางธาตุ) บทที่ 18-20 ลงลึกเรื่องข้อมูลควอนตัม ถ้าใครสนใจแต่ข้อมูลควอนตัม เช่นอาจจะเป็นนักวิทยาศาสตร์คอมพิวเตอร์ จะข้ามบทที่ 10-17 ก็ได้

บทแรก Bits and quanta พูดถึงสองคอนเซปต์หลักคือข้อมูลและการแทรกสอด

เราได้ข้อมูลใหม่มากน้อยขนาดไหนจากการเกิดขึ้นของเหตุการณ์หนึ่งขึ้นอยู่กับว่าก่อนหน้านั้นเราคิดว่ามันมีโอกาสที่เป็นไปได้มากน้อยแค่ไหน ถ้าเราไม่คิดว่าจะเกิดแต่ก็เกิด ก็ได้ข้อมูลมาก ถ้ารู้อยู่แล้วว่าจะเกิดก็ไม่ได้ข้อมูลอะไรใหม่ เราวัดปริมาณของข้อมูลในนิยามนี้ด้วยเอนโทรปี (entropy) ที่มีหน่วยเป็นบิต ในกรณีพิเศษที่เราคิดว่าเหตุการณ์แต่ละเหตุการณ์มีโอกาสเกิดขึ้นเท่าๆกัน เอนโทรปีจะอยู่ในรูป

H = \log M

เมื่อ M เป็นจำนวนของเหตุการณ์และ log คือลอการิธึมฐานสอง เอนโทรปีจากการนับแบบนี้เหมือนกับเอนโทรปีของ Boltzmann ในกลศาสตร์สถิติก่อน Gibbs หรือเอนโทรปีของ Hartley ในยุคก่อนทฤษฎีข้อมูลของ Shannon บางคนอาจจะเคยได้ยินแต่บิตที่เป็นจำนวนเต็ม แต่เอนโทรปีในสูตรข้างต้นไม่จำเป็นต้องเป็นจำนวนเต็มก็ได้ ถ้ามีเหตุการณ์ที่เป็นไปได้ 3 เหตุการณ์ เอนโทรปีก็ประมาณ 1.585 ตัวเลขนี้บอกถึงอัตราการบีบอัดข้อความต่อหนึ่งตัวอักษร ว่าถ้าเราจะบีบอัดข้อความที่มีความยาว n ตัวอักษรโดยแต่ละตัวอักษรเลือกมาจาก 3 ตัวอักษรที่เป็นไปได้ เราจะทำได้ใน n log 3 บิตในลิมิตที่ n เข้าใกล้อนันต์ นี่เป็นกรณีพิเศษของทฤษฎีบท source coding ของ Shannon (เพราะนี่ยังไม่ใช่ Shannon entropy) ที่ให้ความหมายกับนิยามของเอนโทรปีและบิต ในคณิตศาสตร์เราจะนิยามอะไรก็ได้ ค่าของนิยามอยู่ที่ว่าเราจะหาความหมายของมันที่นำไปใช้ประโยชน์ได้หรือไม่

หลังจากแนะนำความหมายของข้อมูลไปแล้ว ก็มายังการแทรกสอด การแทรกสอดของแสงและอนุภาคควอนตัมบรรยายได้ด้วยฟังก์ชัน(ของตำแหน่ง) \phi(x) ผลรวมของคลื่น \phi_1(x) และ \phi_2(x) จากช่องคู่

\phi(x) = \phi_1(x) + \phi_2(x)

แต่ค่าของฟังก์ชันในกรณีแสงเป็นจำนวนจริง(ที่ติดลบได้) ค่าของฟังก์ชันในกรณีควอนตัมเป็นจำนวนเชิงซ้อน ถ้าจะพล็อตฟังก์ชันอย่างในอนิเมชันก็จำกัดให้มันเป็นจำนวนจริงซะ (จำนวนจริงเป็นส่วนหนึ่งของจำนวนเชิงซ้อน) ที่สำคัญกว่านั้นความหมายของกำลังสอง |\phi|^2 ในสองกรณีต่างกัน กรณีของแสงเป็นความเข้มแสง นี่เป็นเหตุผลที่ว่าแสงที่บัพมีความเข้มเป็น 4 เท่า ไม่ใช่ 2 เท่าของความเข้มของแสงจากช่องๆเดียว ในขณะที่กรณีควอนตัมเป็นความน่าจะเป็นที่จะพบอนุภาคที่ตำแหน่ง x

P(x) = |\phi_1(x) + \phi_2(x)|^2

แต่ถ้ามีวิธีที่จะทำให้เรารู้ได้ว่าอนุภาควิ่งผ่านช่องไหน ต้องยกกำลังสองก่อนบวก

P(x) = P_1(x) + P_2 (x) = |\phi_1(x)|^2 + |\phi_2(x)|^2

ซึ่งให้คำตอบที่ไม่เหมือนกัน

|\phi_1(x) + \phi_2(x)|^2 \neq |\phi_1(x)|^2 + |\phi_2(x)|^2

นี่เป็นจุดเริ่มต้นของการเดินทางในอีก 8 บทถัดไปเพื่อไปให้ถึงทฤษฎีบทว่าเมื่อไรจึงจะมีหรือไม่มีการแทรกสอด ทำไมอนุภาคที่สะท้อนผนังที่เจาะช่องคู่จึงไม่ถูกทำการวัด?

บทที่สอง Qubits ใช้สามระบบ: interferometer, ระบบสปิน-1/2 และระบบที่มีพลังงานสองระดับชั้นเป็นตัวอย่างเพื่อแนะนำภาษาของทฤษฎีควอนตัม ประเด็นก็คือถึงแม้ทั้งสามระบบนี้อาจจะไม่เหมือนกันทางฟิสิกส์แต่มันใช้คณิตศาสตร์เดียวกันในการอธิบายคือเวกเตอร์ของจำนวนเชิงซ้อนใน Hilbert space สองมิติซึ่งเปลี่ยนแปลงไปตามเวลาด้วยการแปลงแบบ unitary ที่รักษาความน่าจะเป็นรวมให้เป็น 1 พร้อมทั้งเน้นย้ำ (โดยใช้ Dirac bra-ket notation |\rangle ) ว่าเวกเตอร์เป็นวัตถุทางเรขาคณิตที่ไม่ขึ้นกับเบสิส (basis) เราทำการวัดระบบสปิน-1/2 ในเบสิสไหนก็ได้ เราจะเปลี่ยนเบสิสการวัดใน interferometer โดยการแปลงแบบ unitary ของลำแสงด้วย phase shifters กับ beam splitters ก็ได้ หรือใช้สมการ Schrödinger กับระบบสองชั้นพลังงานก็ได้ ดังนั้นเข้าใจเพียงระบบเดียวก็เข้าใจทุกระบบที่ใช้คณิตศาสตร์เหมือนกัน ระบบสองมิตินี้เราเรียกว่าคิวบิต (qubit) เพราะมันสามารถเก็บ “หนึ่งหน่วย” ของข้อมูลทางควอนตัมได้ |0\rangle หรือ |1\rangle ความหมายที่แท้จริงของคิวบิตจะกระจ่างขึ้นในบทที่ 4 กับ 7

บท 3-5 มีหัวข้อที่คล้ายกับหนังสือทั่วไปผมจึงจะไฮไลท์แค่จุดเด่นๆ

States and observables รวบรวมพีชคณิตเชิงเส้น (linear algebra) ที่จำเป็นในควอนตัม

  • มีจุดหนึ่งที่เน้นตัวหนาว่าตั้งแต่จุดนี้เป็นต้นไปเมื่อพูดถึงเบสิสจะหมายถึง orthonormal basis นี่เป็นสิ่งที่ต้องตกลงให้ชัดเจนเพราะหลายๆอย่างไม่เป็นจริงในเบสิสทั่วไป (ใน Griffiths มีเฉพาะใน appendix)
  • นิยามของเทรซ (trace) ที่ไม่ขึ้นกับเบสิส

\text{Tr}(|\alpha \rangle \langle \beta |) = \langle \beta | \alpha \rangle

  • ไม่บอกว่า eigenvalue ของ observable เป็นค่าที่วัดได้ (ที่บางคนถือเป็น axiom) ใช้คำว่าค่าที่ associate กับผลการวัดแทน ถึงแม้ว่าในที่สุดแล้วหนังสือจะสมมติว่าค่านั้นเป็นจำนวนจริงทำให้ observables เป็น Hermitian operators แต่ก็เป็นเพียงแค่การสมมติ สิ่งที่จำเป็นจริงๆคือ spectral decomposition ของ operators (ซึ่งถ้าไม่สมมติว่าค่าเป็นจำนวนจริงจะใช้ normal แทน Hermitian operators ก็ได้) อาจจะคิดว่าไม่สำคัญแต่สำหรับการวัดแบบ POVM eigenvalue ไม่มีความหมาย ถ้าอยากลงลึกให้หา Ballentine กับ Wiseman & Milburn อ่าน

Distinguishability and information พูดถึงการวัด, ความไม่แน่นอน (uncertainty relation) ระหว่าง observables

  • Projection postulate (ที่บางคนถือเป็น axiom) ไม่เป็นจริงเสมอไป
  • เราสามารถแยกแยะ n สถานะควอนตัมที่ต่างกันได้โดยไม่ผิดพลาดถ้ามันอาศัยอยู่ในมิติ ≥ n สถานะควอนตัมเหล่านี้สามารถใช้ encode ข้อความได้ ระบบควอนตัมในมิติ d จึงมีความจุของข้อมูล(คลาสสิคัล) ≤ log d บิต ที่ผมชอบคือการพิสูจน์ใช้ไอเดียที่ว่าเราสามารถทำการวัดในมิติที่สูงกว่ามิติที่สถานะควอนตัมอาศัยอยู่ได้ ซึ่งเป็นวิธีที่นักทดลองใช้วัด POVM ในแลบ
  • การกระจายกญแจรหัสลับ (key distribution) BB84

Quantum dynamics พูดถึงสมการ Schrödinger, ความไม่แน่นอนระหว่างพลังงานและเวลา

  • Derive สมการ Schrödinger (ที่บางคนถือเป็น axiom) จาก linearity ของ d/dt และการอนุรักษ์ความน่าจะเป็น
  • อธิบายสมมาตร (exponential ของปริมาณอนุรักษ์ที่ commute กับ Hamiltonian)

ตอนต่อไป (ยังไม่ได้เขียน)

ทฤษฎีควอนตัมใน 10 นาที

สมมติว่ามีใครมาถามในบาร์หรือปาร์ตี้ว่าควอนตัมนี่มันคืออะไร จะให้คำตอบที่เข้าใจได้ภายในไม่กี่นาทีได้อย่างไร?

เราจะตอบว่าทฤษฎีควอนตัมคือทฤษฎีความน่าจะเป็นที่ความน่าจะเป็นหักล้างกันได้

สมมติว่าเรารู้ว่าเหรียญหันด้านหัวขึ้น เมื่อโยนเหรียญแบบสุ่มก็จะไม่รู้แล้วว่าจะออกหัวหรือก้อย ความน่าจะเป็นเป็น 1/2 เท่าๆกัน เราเขียนแทนเหตุการณ์นี้ด้วยแผนภาพด้านล่างว่าเริ่มด้วยหัว (ความน่าจะเป็น 1) การโยนเหรียญสุ่มทำให้มีความน่าจะเป็นเท่าๆกัน (1/2) ที่จะออกหัวและก้อย ความน่าจะเป็นสุดท้ายได้มาจากการรวมความน่าจะเป็นของทุกๆทางที่จะเกิดเหตุการณ์นั้นได้เข้าด้วยกัน ในที่นี้คือ 1 \times \frac{1}{2} + 0 \times \frac{1}{2} = \frac{1}{2} สำหรับทั้งผลที่ออกหัวและผลที่ออกก้อย

stochastic1

ถึงเราโยนเหรียญอีกที (โดยยังไม่รู้ว่าออกหัวหรือก้อย) ก็ยังมีโอกาสพอๆกันที่จะออกหัวหรือก้อย

stochastic2

สิ่งที่แตกต่างออกไปในควอนตัมก็คือทฤษฎีควอนตัมเสมือนมีความน่าจะเป็นที่น้อยกว่าศูนย์ แน่นอนว่าความน่าจะเป็นที่น้อยกว่าศูนย์ไม่มีความหมาย ทฤษฎีควอนตัมไม่เคยให้ผลอย่างนั้นออกมา กลวิธีที่ทฤษฎีควอนตัมใช้ก็คือแทนที่จะดูว่าความน่าจะเป็นเปลี่ยนไปอย่างไร ให้ดูว่าจำนวนที่ยกกำลังสองแล้วได้เป็นความน่าจะเป็นเปลี่ยนไปอย่างไรแทน

เป็นไปได้หรือไม่ที่จะมีการ “โยนเหรียญสุ่มแบบควอนตัม” ที่ทำให้ได้ความน่าจะเป็นที่จะออกหัวหรือก้อยเท่ากันแต่เขียนโดยใช้รากที่สองของ 1/2 แทน ถ้าลองเริ่มด้วยหัวเหมือนเดิม (ความน่าจะเป็น 1 แต่ 1 ในแผนภาพด้านล่างคือ \sqrt{1} )  ก็ดูไม่มีอะไรผิดปกติ

unitary_forbidden1

แต่หากเราเริ่มต้นด้วย 1/\sqrt{2} และ 1/\sqrt{2}

unitary_forbidden2

เราจะได้ความน่าจะเป็นรวมทั้งหมดเท่ากับ 1^2 + 1^2 = 2 ซึ่งผิด!

ปรากฎว่าเราสามารถแก้ไขมันได้ด้วยการใส่ “ความน่าจะเป็นติดลบ” เข้าไป (สังเกตขวาสุดของภาพ)

unitary2

ถ้าเริ่มด้วยเหรียญที่ออกหัวหรือก้อย การโยนเหรียญแบบควอนตัมก็ยังคงสุ่มให้ความน่าจะเป็นเท่าๆกันระหว่างหัวกับก้อยออกมาเหมือนการโยนเหรียญแบบธรรมดา แต่ถ้าเราโยนอีกครั้ง คราวนี้ความน่าจะเป็นที่เหรียญจะออกก้อยกลับกลายเป็นศูนย์เพราะการหักล้างกันของ “ความน่าจะเป็น” \frac{1}{\sqrt{2}} \times \frac{1}{\sqrt{2}} + \frac{1}{\sqrt{2}} \times \left( -\frac{1}{\sqrt{2}} \right) = 0

ในทฤษฎีควอนตัม ถ้ามีหลายทางที่เหตุการณ์หนึ่งจะเกิดได้อาจทำให้เหตุการณ์นั้นเกิดขึ้นไม่ได้! แต่มีข้อแม้ว่าถ้าเริ่มด้วยความน่าจะเป็นที่ไม่ใช่ 0 หรือ 1 เราจะทำการโยนเหรียญสุ่มแบบควอนตัมได้ก็ต่อเมื่อไม่มีกระบวนการทางฟิสิกส์ใดๆที่สามารถทำให้เรารู้ได้ว่าขณะนี้เหรียญหันด้านหัวหรือก้อยขึ้น (มีตัวอย่างด้านล่างเพื่อความกระจ่าง) นี่คือแก่นของควอนตัม เท่านี้แหละ

ต่อไปนี้เป็นการทดลองในความคิด (thought experiment) ที่ใช้กฎนี้ให้เป็นประโยชน์ เหมือนกับการทดลองในความคิดอื่นๆในควอนตัมที่ต้องให้โหดๆ มีอิมแพกต์ อย่างจับแมวไปรมยาพิษบ้าง ฆ่าตัวตายบ้าง การทดลองนี้สมมติว่าเราสั่งทำระเบิดที่ sensitive มาก ได้รับแสงแค่โฟตอนเดียวก็ระเบิด แต่บางครั้งโรงงานผลิตระเบิดก็ให้ระเบิดที่ด้านไม่ทำปฏิกริยากับโฟตอนมา และไม่มีวิธีอื่นใดที่จะบอกความแตกต่างของระเบิดที่ทำงานได้กับระเบิดที่ด้านได้ ถ้าทดสอบโดยการยิงโฟตอนใส่ระเบิดทุกๆลูกก็จะไม่เหลือระเบิดที่ทำงานได้เลย แต่ทฤษฎีควอนตัมสามารถช่วยได้

ในภาพด้านล่างเราส่งโฟตอนจากจุด A ผ่านกระจกที่แยกเส้นทางของโฟตอนออกเป็นสองเส้นทางและไปรวมกันใหม่ที่กระจกอีกบาน (ถ้าไม่มีอะไรที่ B) ก่อนจะไปยังเครื่องตรวจจับโฟตอนที่ C หรือ D สิ่งเดียวที่ต้องรู้ก็คือกระจกที่แยกและรวมโฟตอนนี้ทำหน้าที่เดียวกับการโยนเหรียญสุ่มแบบควอนตัมทุกประการ การที่โฟตอนเข้ามาทางเดียวจากจุด A นั้นเหมือนกับการที่เหรียญหันด้านหัวหรือก้อยขึ้นอย่างแน่นอนอยู่แล้ว หลังกระจกบานแรกก็จะมีความน่าจะเป็นครึ่ง-ครึ่งที่จะเจอโฟตอนในแขนด้านบนหรือแขนด้านล่าง หลังกระจกบานที่สองโฟตอน (สมมติว่า) จะไปยัง C เสมอ (เทียบกับเหรียญออกหัวเสมอหลังจากโยนสองครั้ง) ไม่มีโฟตอนตกไปยัง D

E-V_bomb-testing.svg
ภาพจาก Wikipedia

อะไรจะเกิดขึ้นถ้าเราเอาระเบิดไปวางที่จุด B? ถ้าระเบิดด้านจะไม่มีอะไรเปลี่ยนแปลง เพราะไม่ว่าจะมีโฟตอนอยู่ในแขนไหนก็ให้ผลเหมือนกัน ทางควอนตัมถือว่าการวัดยังไม่เกิดขึ้น ถ้าระเบิดทำงานได้และมันเจอกับโฟตอนที่อยู่ในแขนล่าง มันก็จะระเบิด ถ้าโฟตอนอยู่ในแขนบนก็จะไม่ระเบิด ไม่ว่าจะในกรณีไหนสถานะของระเบิดก็เป็นตัวบอกเส้นทางที่โฟตอนเดินทางผ่าน ถือว่าเกิดการวัดเส้นทางของโฟตอน ซึ่งการวัดนี้ทำให้เหลือแต่ความน่าจะเป็นธรรมดาที่หักล้างกันไม่ได้อีกต่อไป ถ้าโฟตอนอยู่ในแขนบนกระจกบานที่สองก็ทำการสุ่มให้โฟตอนในแขนบนตกไปยัง C หรือ D ก็ได้ ถ้าโฟตอนอยู่ในแขนล่างก็จะตกไปยัง C หรือ D ก็ได้เช่นกัน ซึ่งความน่าจะเป็นที่จะพบโฟตอนที่ D ในทั้งสองทางไม่สามารถหักล้างกันเป็นศูนย์ได้แล้ว แปลว่าเมื่อไรที่เราพบโฟตอนที่ D (ถ้ายังไม่โดนระเบิดตายไปซะก่อน) เราก็สรุปได้ทันทีว่าระเบิดไม่ด้านแม้ว่าโฟตอนกับระเบิดจะไม่เคยเจอกันเลยก็ตาม การไต่สวนทางควอนตัม (quantum interrogation) นี้ Avshalom Elitzur และ Lev Vaidman เสนอขึ้นในปี 1993 และถูกทำจริงในแลบแล้ว (โดยไม่ใช้วัตถุระเบิด)

ควอนตัมคอมพิวเตอร์ไม่ได้ทำงานเร็วกว่าคอมพิวเตอร์ทั่วไปโดยการลองทุกๆคำตอบพร้อมกัน ดังที่เราเห็นว่าเมื่อมีลูกระเบิด โฟตอนก็มีเส้นทางที่เป็นไปได้เพิ่มมากขึ้น แต่เราไม่สามารถเลือกเฉพาะผลการวัดที่ต้องการได้ (ถ้าได้โฟตอนที่ C จะสรุปไม่ได้เลยว่าระเบิดทำงานได้หรือเปล่า) ควอนตัมคอมพิวเตอร์ทำงานโดยการจัดแต่งให้คำตอบที่ผิดหักล้างกันให้มากที่สุด และการสร้างควอนตัมคอมพิวเตอร์นั้นทำได้ยากเพราะต้องระมัดระวังอย่างมากไม่ให้มีอะไรมาทำให้ความน่าจะเป็นที่หักล้างกันได้กลายเป็นความน่าจะเป็นธรรมดาซะก่อนที่จะได้คำตอบ

วัดคลื่นความโน้มถ่วงที่ขีดสุดทางควอนตัม: เมื่อความมืดยังสว่างเกินไป

thornecaves_carlton

สิ่งแรกที่เราทำเมื่อลุกขึ้นมาจากเตียงเช้าวันศุกร์ที่ 12 กุมภาพันธ์คือเช็คว่าตกลงเมื่อคืน (ตีสองของออสเตรเลีย) มีการแถลงว่าพบคลื่นความโน้มถ่วงหรือเปล่า และก็เป็นความจริง นี่เป็นเหตุการณ์ที่ต้องจารึกลงในประวัติศาสตร์ว่ามนุษย์สามารถฟังคลื่นความโน้มถ่วงได้แล้ว แต่เหตุผลส่วนตัวที่ทำให้ดีใจยิ่งขึ้นไปอีกคือมันเป็นการค้นพบที่ Kip Thorne และอาจารย์ที่ปรึกษาของเรา, Carlton Caves, รอคอยมาครึ่งชีวิต

ถ้าติดตามข่าวนี้ก็คงจะพอทราบแล้วว่าเจ้าคลื่นความโน้มถ่วงนี่คืออะไร (การกระเพื่อมของกาลอวกาศที่ทฤษฎีสัมพัทธภาพทั่วไปทำนาย) แหล่งกำเนิดของสัญญาณครั้งนี้มาจากไหน (หลุมดำโคจรเข้ารวมตัวกัน) เราตรวจจับมันด้วยวิธีอะไร (การแทรกสอด (interference) ของแสงเลเซอร์ซึ่งเป็นที่มาของชื่อ LIGO) และการค้นพบนี้เปิดหน้าใหม่ของการศึกษาดาราศาสตร์อย่างไร ถ้าใครอยากฟังเสวนาเป็นภาษาไทยก็มีให้ฟังแล้วอย่างที่จุฬาเป็นต้นที่มีนักเรียนคนไทยที่อยู่ที่หอสังเกตการณ์ในคืนประวัติศาสตร์ ณัฐสินี กิจบุญชู มาแจมด้วย (เราอ่านเหตุผลที่ทำให้เขาชอบดาราศาสตร์แล้วรู้สึกตื่นเต้นไปด้วยเลย) เราก็เลยอยากจะนำเสนอเรื่องนี้ในมุมที่ไม่มีใครพูดถึงบ้าง มุมของการวัดเชิงควอนตัมที่เป็นงานของ Carl ที่เป็นที่รู้จักมากที่สุดถ้าวัดตามจำนวนครั้งที่ถูกอ้างอิงถึง (หลายพันถ้าดูจาก Google Scholar Citations)

LIGO พยายามวัดคลื่นความโน้มถ่วงด้วยการแทรกสอดของแสงเลเซอร์ที่ผ่าน beamsplitter ที่แยกแสงเป็นสองส่วนเท่าๆกันไปยังแขนแต่ละข้างของ LIGO และสะท้อนกระจกตรงปลายแขนกลับมาเจอกันใหม่ตามในอนิเมชัน โดยนักทดลองปรับให้มันหักล้างกันพอดีถ้าระยะทางที่แสงจากเดินทางผ่านมาจากสองแขนมีค่าเท่ากันและทำให้ไม่มีสัญญาณให้เห็น ในขณะที่คลื่นความโน้มถ่วงจะทำให้ความยาวแขนทั้งสองข้างไม่เท่ากันและเป็นสัญญาณให้เราเห็น ยิ่งแขนยาวระยะทางที่แสงวิ่งก็จะได้รับผลจากการยืด-หดของแขนได้มากขึ้น (เว้นแต่ว่าระยะทางนั้นจะเป็นหลายเท่าตัวของคาบของคลื่นความโน้มถ่วง การยืดกับการหดก็จะหักล้างกัน) แขนของ LIGO ยาว 4 กิโลเมตรแต่เขาทำให้แสงสะท้อนกลับไปกลับมา 400 ครั้งก่อนจะกลับมารวมกันจนเทียบเท่ากับมีความยาวแขน 1,600 กิโลเมตร ปกติความยาวคลื่นของคลื่นแม่เหล็กไฟฟ้าจะสั้นกว่าขนาดของแหล่งกำเนิด (อย่างช่วงความยาวคลื่นของแสงที่มองเห็นได้ก็แค่ 400-700 นาโนเมตรเอง) แต่ความยาวคลื่นของคลื่นความโน้มถ่วงมักจะยาวกว่าขนาดของแหล่งกำเนิด หลุมดำที่มีมวลหลายสิบถึงหลายร้อยเท่าของดวงอาทิตย์จะมีขนาดอยู่ในช่วงหลายกิโลเมตร ความยาวคลื่นความโน้มถ่วงที่มาจากมันก็อยู่ในหลักหลายร้อยถึงหลายพันกิโลเมตร ตรงกับที่ LIGO ตรวจจับได้พอดี (LIGO ได้รับสัญญาณก่อนแล้วจึงมาเช็คกับการคำนวณจากทฤษฎีว่าสัญญาณน่าจะมาจากอะไร)

ปัญหาก็คือเนื่องจากแรงโน้มถ่วงเป็นแรงที่อ่อนมาก อ่อนกว่าแรงแม่เหล็กไฟฟ้าถึง 1043 เท่า (แม่เหล็กเล็กๆดูดโลหะต้านกับแรงโน้มถ่วงของโลกทั้งใบได้) LIGO จึงต้องวัดส่วนต่างของระยะทางที่ละเอียดมากๆได้ ถึงแม้จะเป็นเหตุการณ์ทางดาราศาสตร์ที่มีความรุนแรงมหาศาล การสั่นไหวที่เกิดจากคลื่นความโน้มถ่วงที่ปล่อยออกมาก็ยังอยู่ในในระดับ 10-19 เมตร (มักจะเห็นเป็นค่า strain 10-22  ก็คูณความยาวแขน 4 กิโลเมตรเข้าไป) น้อยขนาดไหนนึกดูว่าอะตอมมีขนาดเล็กในระดับเฟมโตเมตร (10-15 เมตร) นี่เล็กลงไปอีกหมื่นเท่า

สัญญาณรบกวนจากความมืด

อะไรคือขีดจำกัดทางทฤษฎีของความแม่นยำในการวัด? เพื่อที่จะตอบคำถามนี้ ขอให้จินตนาการว่า LIGO อยู่ในสิ่งแวดล้อมที่ไม่มีสัญญาณรบกวนจากภายนอกเลย (ซึ่งถ้าเป็นจริงก็จะทำให้งานของนักวิทยาศาสตร์และวิศวกรง่ายกว่านี้มากๆๆๆ แต่นักทฤษฎีมีอิสระที่จะเพ้อฝันได้…ในระดับหนึ่ง!) สิ่งที่หลงเหลืออยู่ก็จะเป็นความคลาดเคลื่อนที่มาจากตัว interferometer เอง

สิ่งหนึ่งที่ต้องรู้คือแสงเลเซอร์นั้นไม่นิ่ง ถ้าเลเซอร์มีจำนวนโฟตอนเฉลี่ย \bar{N} ความไม่แน่นอนของจำนวนโฟตอน (ค่าเบี่ยงเบนมาตรฐาน) ก็จะเป็น \sqrt{\bar{N}} (shot noise) (เพราะธรรมชาติความเป็นอนุภาคของโฟตอนในลำแสงทำให้โฟตอนแจกแจงแบบ Poisson [1] หรือจะคิดว่าเพราะทฤษฎีบท central limit ใช้กับโฟตอนที่เป็นอิสระต่อกันก็ได้ [2]) เราจึงสามารถลดความคลาดเคลื่อนสัมพัทธ์กับจำนวนโฟตอน

\Delta \propto \frac{\sqrt{\bar{N}}}{\bar{N}} = \frac{1}{\sqrt{\bar{N}}}

ได้ด้วยการเพิ่มกำลังของเลเซอร์

ในช่วงปี ’70 คนกำลังสงสัยกันว่าการเพิ่มกำลังของเลเซอร์ไปก่อให้เกิดการรบกวนของการวัดจากแรงดันของแสง (radiation pressure) หรือเปล่า? เหมือนกับที่ปกติเราไม่รู้สึกว่าอากาศมีแรงดัน แสงก็มีแรงดัน ตัวอย่างที่ถูกยกขึ้นมาบ่อยๆก็คือหางของดาวหางที่ถูกปัดไปในทิศทางตรงข้ามกับดวงอาทิตย์เนื่องจากความดันของแสงอาทิตย์และพายุสุริยะ เลเซอร์สามารถดันกระจกตรงปลายแขน LIGO ให้สั่นไหวได้ แต่ปริศนาก็คือปริมาณที่เราวัดได้ไม่ใช่ความยาวของแขนแต่เป็นส่วนต่างของความยาวต่างหาก และหาก beamsplitter แบ่งเลเซอร์ไปยังสองแขนเท่าๆกันความดันของแสงก็ควรจะส่งผลต่อสองแขนเท่าๆกันและไม่น่าจะก่อให้เกิดสัญญาณรบกวน

ถึงตรงนี้ Carl ในปี 1980 บอกว่าเรายังคิดแบบควอนตัมไม่พอ

เราสามารถสื่อสถานะควอนตัมของเลเซอร์ออกมาเป็นภาพด้วยแผนภาพเฟเซอร์ (phasor diagram) ที่บอกขนาด (แอมลิจูด) และเฟสของคลื่นด้วยความยาวของลูกศรและมุมตามลำดับ นี่คือคลื่นที่มีขนาดและเฟสที่แน่นอนเปลี่ยนไปในเวลาด้วยการหมุนทวนเข็มนาฬิกา

phaser1

แต่ด้วยกฏความไม่แน่นอนของ Heisenberg ในทฤษฎีควอนตัม คลื่นไม่สามารถมีทั้งขนาดและเฟสที่แน่นอนพร้อมกันได้ สถานะควอนตัมของเลเซอร์เรียกว่าสถานะอาพันธ์ (coherent state) (เพราะเลเซอร์เป็นแสงอาพันธ์ มีความสัมพันธ์ของเฟสในลำแสงที่แน่นอน) และมีความไม่แน่นอนเท่ากันในทุกๆทิศทาง แทนด้วยบอลสีฟ้า

coherent

กำลังสองของความยาวของเวกเตอร์คือจำนวนโฟตอนเฉลี่ย \bar{N} แต่จะเกิดอะไรขึ้นถ้าจำนวนโฟตอนเฉลี่ยเป็นศูนย์?

vacuum

คนทั่วไปเรียกสถานะนี้ว่า “ความมืด” นักฟิสิกส์เรียกมันว่า “สุญญากาศ” แต่จะเห็นว่าจริงๆแล้วมันยังมีความไม่แน่นอนของโฟตอนอยู่ insight ของ Carl คือด้านของ beamsplitter ตรงข้ามกับที่ยิงเลเซอร์เข้าไปนั้นไม่ได้ว่างเปล่าไม่มีอะไร เพราะในโลกควอนตัมความมืดสนิทก็ยังมีแสงสว่างอยู่! ความเข้าใจใหม่นี้ไขปริศนาของแรงดันของโฟตอนดังต่อไปนี้ [3]

legendary_abstract

ถ้าเราตามสุญญากาศผ่าน beamsplitter ไปตามแขนของ interferometer เพื่อดูผลของมันกับสัญญาณ (ซึ่งทำได้ไม่ยากใน Heisenberg picture เพราะมันเป็นแค่ทัศนศาสตร์เชิงเส้น (linear optics) กล่าวคือ beamsplitter และการเปลี่ยนแปลงของเฟสในแขนของ interferometer แปลง creation และ annihilation operators เป็น linear combination ของพวกมันเท่านั้น ุมีการคำนวณสั้นๆในวิทยานิพนธ์ของ Sheila E. Dwyer) แล้วจะพบว่าความไม่แน่นอนในสุญญากาศถูกแบ่งไปเป็นทั้งความไม่แน่นอนในจำนวนโฟตอนและส่วนต่างของแรงดันของโฟตอนในแต่ละแขน ยิ่งไปกว่านั้นสองสัญญาณรบกวนนี้ยังมาจากความไม่แน่นอนในคนละแกนกัน เช่น สัญญาณรบกวนหนึ่งมาจากความกว้างของแถบสีเขียว อีกสัญญาณรบกวนหนึ่งมาจากความกว้างของแถบสีชมพู

vacuum_unc_color2

ใน interferometer ปัจจุบันใช้กระจกหนักพอที่แรงดันของเลเซอร์ที่ใช้แทบจะไม่มีผล (LIGO ใช้กระจกหนัก 40 กิโลกรัมที่การสั่นของจุดศูนย์กลางมวลถูกลดอุณหภูมิจนตกลงไปอยู่ในสถานะควอนตัมพลังงานต่ำๆ (ทั้งๆที่ตัวกระจกยังอยู่ในอุณหภูมิห้อง!)) เราจึงมุ่งเป้าไปที่การลดความไม่แน่นอนของจำนวนโฟตอนอย่างเดียวได้ และนี่เป็นอานิสงค์ของการคิดแบบ Carl เทียบกับการนำกฏความไม่แน่นอนของ Heisenberg ไปใช้กับเลเซอร์หรือกระจก ตราบใดที่ยังคงขนาดของบอลสีฟ้าไว้ได้ ความไม่แน่นอนของ Heisenberg ไม่ได้ห้ามเราที่จะบีบ (squeeze) สุญญากาศทำให้เครื่องวัดแสงเลเซอร์เห็นความมืดยิ่งกว่าความมืดสนิทได้

squeezed

ดังนั้นแทนที่จะลดสัญญาณรบกวนโดยต้องไปยุ่งกับชิ้นส่วนของ interferometer เราสามารถลดสัญญาณที่รบกวนการวัดคลื่นความโน้มถ่วงได้เพียงแค่ด้วยการทำอะไรกับสุญญากาศซึ่งเข้าไปใน interferometer อยู่แล้วตามธรรมชาติ ฟังดูแล้วไม่น่าเชื่อว่าความมืดจะส่งผลต่อเลเซอร์ที่มีโฟตอนจำนวนมหาศาลได้!

ทรัพยากรควอนตัม

เมื่อเปรียบเทียบกับการเพิ่มกำลังเลเซอร์ที่ลดความคลาดเคลื่อน \Delta \propto 1/\sqrt{\bar{N}} แต่เพิ่มความร้อนของอุปกรณ์ต่างๆแล้ว การบีบสุญญากาศไม่ใช่แค่ลดความคลาดเคลื่อนด้วยอัตราที่ดีขึ้น 1/\bar{N}^{3/4} ตามการวิเคราะห์ของ Carl แต่ด้วยการวัดที่ซับซ้อนยังสามารถวัดที่ “ขีดจำกัดของ Heisenberg” 1/\bar{N} ที่ในหลายกรณีเชื่อว่าเป็นการสเกลที่ดีที่สุดได้หากไม่มีการสูญเสียโฟตอน

คำถามที่ยังเหลืออยู่ก็คือสถานะควอนตัมใดลดความคลาดเคลื่อนในการวัดส่วนต่างของระยะทางใน interferometer ได้ดีที่สุด? คำตอบที่ได้ยินบ่อยๆคือสถานะเอนแทงเกิลของ N โฟตอนและสุญญากาศที่รู้จักกันในนาม NOON state เพราะหน้าตาเวลาเขียนมัน

\frac{1}{\sqrt{2}} (|N,0\rangle + |0,N \rangle )

แต่คำตอบนี้พิสูจน์แล้วก็ต่อเมื่อ interferometer ได้รับโฟตอนที่มีจำนวนแน่นอน ไม่สามารถประยุกต์โดยตรงได้ถ้ากำหนดแต่จำนวนโฟตอนเฉลี่ย ซ้ำร้ายด้วยความที่เป็นสถานะเอนแทงเกิลมันยังเปราะบางมาก ถูกสร้างขึ้นมาในแลบได้เพียงไม่กี่ N เท่านั้น เทียบกับเลเซอร์ใน LIGO ที่อาจจะให้โฟตอนมากถึง 1016 โฟตอนได้ในการวัดสัญญาณหนึ่งรอบ Matthias D. Lang รุ่นพี่ในกลุ่มของ Carl จึงทำหน้าที่ตอบคำถามนี้และทุกอย่างสามารถหาอ่านได้ในวิทยานิพนธ์ของเขา คำตอบที่ทำให้อุ่นใจเมื่ออินพุตด้านหนึ่งของ beamsplitter เป็นแสงเลเซอร์ (ภายใต้ทั้งสภาวะอุดมคติและเมื่อมีการสูญเสียโฟตอน) คือสุญญากาศที่ถูกบีบ

แต่ทั้งนี้ทั้งนั้นงานทั้งหมดนี้ขึ้นอยู่กับการประมาณว่าความคลาดเคลื่อนจากแรงดันของแสงไม่มีผล ไม่เหมือนในงานแรกที่เราได้รับจาก Carl ซึ่งตอนนี้เราไม่ได้ทำแล้วและมีหลายเรื่องที่ยังเป็นปริศนากับเราอยู่ ก็หวังว่าในอนาคตจะมีใครสักคน (อาจจะต้องเป็นเราเอง) ที่ให้คำตอบที่น่าพึงพอใจกับเราได้


ก่อนที่เราจะเขียนโพสท์นี้เราไม่รู้ว่าการบีบสุญญากาศนั้นยังไม่ถูกนำมาใช้ใน LIGO ในขณะที่ค้นพบคลื่นความโน้มถ่วง แต่ LIGO เคยใช้มาแล้วก่อนที่จะอัพเกรดและ GEO600 ที่เยอรมันก็ยังใช้อยู่ ปัญหาใหญ่ของการใช้สุญญากาศที่ถูกบีบคือการสูญเสียโฟตอนซึ่งทำให้การบีบ 10.3 เดซิเบลที่ควรจะเทียบเท่ากับการเพิ่มกำลังของเลเซอร์เกิน 10 เท่าเหลือแค่ 2.2 เดซิเบล แต่เราไม่คิดว่านี่ลดความสำคัญของงานของ Carl เพราะมันวางกรอบให้คนเข้าใจสัญญาณรบกวนใน interferometer อย่างถูกต้อง และนี่เป็นวิธีที่ Carl ทำงาน (จาก LIGO Magazine ฉบับที่ 3)

For my own part, I work on things not to produce concepts or ideas that are practical, but because I want to understand something that I don’t understand. That’s why I worked on quantum limits in gravitational-wave detectors.

ซึ่งเราเชื่อว่านี่เป็นสาเหตุที่เป็นแรงผลักดันให้นักวิทยาศาสตร์ที่แท้จริงทำงานอย่างไม่เหนื่อยล้า ดังที่ Carl เคยพูดว่า “เรารู้ว่าเราทำเพื่อ[ขจัดความไม่รู้ของ]ตัวเอง แต่เราก็รู้ว่ามันให้ประโยชน์แก่คนอื่นด้วย”

อ้างอิง

[1] Mark Fox, Quantum Optics: An Introduction, Oxford University Press (2006) 
[2] Vittorio Giovannetti, Seth Lloyd และ Lorenzo Maccone, “Quantum-Enhanced Measurements: Beating the Standard Quantum Limit,” Science 306 1330 (2004) arXiv:quant-ph/0412078 
[3] Carlton Caves, “Quantum-mechanical radiation-pressure fluctuations in an interferometer,” Physical Review Letters 45 75 (1980), “Quantum-mechanical noise in an interferometer,” Physical Review D 23 1693 (1981) 

Coogee’16

ภาพจากงานประชุม Coogee’16 ที่ชายหาด Coogee (“คูจจี”) กรุงซิดนีย์เน้นความสัมพันธ์ระหว่าง topology, quantum many-body physics และ quantum information

20160202_132837crop 20160202_133104 20160202_094912

ในที่นี้

Topology = topological quantum field theories, สมการ Yang-Baxter และ quantum groups, braiding และ fusion categories จากทางคณิตศาสตร์จริงๆ (มีนักคณิตศาสตร์มาด้วย)

Quantum many-body physics = topological phases, symmetry-protected phases, anyons และ fractional quantum hall effect

Quantum information = tensor networks อย่าง matrix product states/operators และ MERA (Multi-scale Entanglement Renormalization Ansatz), quantum error correction

ในช่วงปี ’60 ’70 high energy physics (อนุภาคมูลฐาน) และ condensed matter physics (สสาร) มาบรรจบกันด้วยความเข้าใจ quantum field theories เป็น effective field theories ที่ไม่ขึ้นกับอะไรที่เกิดขึ้นในสเกลที่เล็กเกินหรือพลังงานสูงเกินกว่าที่เราจะไปรับรู้ได้ เหมือนกับที่เรามีทฤษฎีของของไหลที่ต่อเนื่องและใช้มันอธิบายคลื่นในทะเลได้โดยที่ไม่ต้องรู้ว่าน้ำมีความไม่ต่อเนื่องจากการที่มันประกอบกันขึ้นมาจากโมเลกุล H2O ซึ่ง ณ จุดนั้นทฤษฎีของไหลก็ใช้ไม่ได้อีกต่อไป (ผู้บุกเบิก Kenneth Wilson เสียชีวิตไปในปี ’13 Leo Kadanoff ก็เพิ่งเสียชีวิตไปเมื่อเดือนตุลาคม ’15 ที่ผ่านมา Block renormalization ของ Kadanoff เป็นอะไรที่พิเศษในความทรงจำของเราเพราะเป็นเรื่องที่ทำเป็นโครงงานในคลาสปีแรกที่เรียนฟิสิกส์ที่อเมริกา)

ความรู้จาก high energy physics ก็ถูกนำเข้ามาใน quantum information ไม่นานหลังจากคนคิดเรื่องควอนตัมคอมพิวเตอร์ เริ่มที่ Alexei Kitaev (John Preskill ที่ Caltech ทึ่งในตัวเขาตั้งแต่แรกพบ) เสนอไอเดียใช้สมบัติทาง topology ที่ไม่ sensitive ต่อการรบกวนเฉพาะที่คิวบิตใดคิวบิตหนึ่งของอนุภาค non-abelian anyons ซึ่งยังไม่พบในแลบเพื่อสร้างควอนตัมคอมพิวเตอร์ (Kitaev, Gregory Moore และ Nicholas Reed เพิ่งได้รางวัลเหรียญ Dirac จากเรื่อง non-abelian anyons ถึงมันจะยังไม่ถูกค้นพบในแลบแต่ toric code ของ Kitaev ที่มี “abelian anyons” ใช้เป็น quantum error correcting code ได้ อย่างกลุ่มของ John Martinis ที่ UCSB ก็ใช้อยู่) Topological quantum computing นี้นำไปสู่การค้นพบควอนตัมอัลกอริธึมในการประมาณ Jones polynomial ซึ่งเป็นปัญหา BQP-complete (ปัญหายากที่สุดที่ควอนตัมคอมพิวเตอร์จะแก้ได้อย่างมีประสิทธิภาพ) (Vaughan Jones ผู้รับเหรียญ Fields เจ้าของ Jones polynomial ก็มางานนี้ด้วย)

ในวันนี้ความเข้าใจทฤษฎีควอนตัมในระดับที่ละเอียดขึ้นจากสาขา quantum information อย่างเรื่องเอนแทงเกิลเมนต์ก็ย้อนกลับไปไขปัญหาใน high energy physics และ condensed matter physics อย่าง tensor networks เป็นต้น เอนแทงเกิลเมนต์ใน tensor networks บอกเราว่าเมื่อไรที่จะจำลองระบบ condensed matter บนคอมพิวเตอร์ธรรมดาได้ Tensor networks ยังเป็นโมเดลของ effective field theories ของ anyons และอื่นๆ, โมเดลของ gauge-gravity duality หรือใช้นิยามสถานะใหม่ของสสารในเทอมของ quantum circuits

ด้วยเหตุผลนี้ถ้ายังไม่รู้จัก tensor networks ก็ควรจะเริ่มทำความรู้จักกับมันตั้งแต่วันนี้เสีย ขณะที่เรากำลังดิ้นรนที่จะเข้าใจ field theories ของ anyons ในเทอมของ representation theory อยู่…

ทำความเข้าใจความเร็วร้อยล้านเท่าของเครื่องจักร D-Wave

…เราจะบอกได้ว่า QA บนเครื่องจักร D-Wave เร็วกว่าอัลกอริธึมดั้งเดิมได้หรือไม่? น่าเสียดายว่าคำตอบในตอนนี้คือไม่ ถ้าอย่างนั้นมีปัญหาอื่นที่ใช้ในการแสดง speedup ของเครื่องจักร D-Wave ได้หรือเปล่า? ไม่มีใครรู้คำตอบ

อาจจะพูดได้ว่าเครื่องจักร D-Wave ที่ถูกสร้างมาเพื่อให้เป็นควอนตัมคอมพิวเตอร์เชิงพาณิชย์เครื่องแรกเป็นสาเหตุให้เราเริ่มเขียนบล็อกนี้ขึ้น เพราะก่อนหน้านั้นถึงแม้ว่าทฤษฎีควอนตัมมักจะถูกเข้าใจผิดอยู่แล้วแต่เมื่อมันมาเป็นที่สนใจในวงการเทคโนโลยีก็ยิ่งทำให้จำนวนคนที่เข้าใจผิดมีมากขึ้นไปใหญ่ เร็วๆนี้ Google ได้ออกเปเปอร์

Vasil S. Denchev et al.What is the Computational Value of Finite Range Tunneling?

ซึ่งถูกนำมาเป็นข่าวว่าเครื่องจักร D-Wave (2X) เร็วกว่า PC ถึงร้อยล้านเท่า! ความเร็วนี้มาจากการเปรียบเทียบกับอัลกอริธึมหนึ่งๆเท่านั้นซึ่งข่าวก็พูดถึง แต่ประเด็นที่ไม่ถูกยกขึ้นมาเลยก็คือ มีอัลกอริธึมที่รันได้บน PC ที่เร็วกว่าเครื่องจักร D-Wave ซึ่งทำให้ประโยคที่ว่า “เครื่องจักร D-Wave เร็วกว่า PC” ไม่จริงซะทีเดียว ซึ่งเปเปอร์เองก็บอกว่าสรุปเช่นนั้นไม่ได้เพราะเหตุผลเดียวกันว่ามีอัลกอริธึมบน PC ที่เร็วกว่า สิ่งที่พบได้ในเปเปอร์ก็คือมีปัญหาที่ถูกออกแบบมาเพื่อให้ Simulated Annealing (SA) ติดหล่ม ทีมของ Google ทำการทดลองและได้ผลว่าเครื่องจักร D-Wave แก้ปัญหานี้ได้เร็วกว่า SA และ Quantum Monte Carlo (QMC) ร้อยล้านเท่า โดย speedup อันแรกน่าจะเป็น asymptotic ในขณะที่อันหลังเป็นค่าคงที่ตามภาพ

D-Wave_runtime_comparison
จาก Vasil S. Denchev et al.

จุดมุ่งหมายของโพสท์นี้คือการอธิบายที่มาที่ไปตามความเข้าใจคร่าวๆของเราว่าทำไม Google ถึงเปรียบเทียบระหว่างสามวิธีนี้, ผลเป็นไปตามที่คาดจากทฤษฎีหรือไม่, และอนาคตของเครื่องจักร D-Wave จะดำเนินไปในทางไหน

ปัญหาที่เครื่องจักร D-Wave ต้องการแก้

คลาสของปัญหาที่ทีมของ Google สนใจคือการหาคำตอบที่ดีที่สุดจากทุกๆคำตอบที่เป็นไปได้ (optimization) ซึ่งเป็นปัญหาที่แพร่หลายมาก ขอเพียงเรามีเซตของสถานะ (ค่าของตัวแปร) และฟังก์ชันของ “ค่าใช้จ่าย” นิยามบนเซตของสถานะ เป้าหมายคือการหาสถานะที่ดีที่สุดโดยนิยามว่าคือสถานะที่ต้องจ่ายน้อยที่สุด ตัวอย่างที่คนน่าจะรู้จักกันมากที่สุดก็เช่นปัญหา Traveling Salesman หาเส้นทางสั้นที่สุดที่จะเดินทางผ่านทุกจุดมุ่งหมายที่ต้องการผ่านซึ่งเป็นปัญหาที่สายการบิน, ขนส่ง, ไปรษณีย์ ฯลฯ ต้องประสบ โดยทั่วไปแล้วไม่มีใครค้นพบอัลกอริธึมที่แก้ปัญหาประเภทนี้ได้อย่างมีประสิทธิภาพถึงแม้จะมีควอนตัมคอมพิวเตอร์ (หลายปัญหาเป็นปัญหา NP-complete) เป้าหมายของทีม Google จึงไม่ใช่การแก้ปัญหาเหล่านี้อย่างมีประสิทธิภาพแต่เป็นการเปรียบเทียบว่าควอนตัมคอมพิวเตอร์แก้ปัญหานี้ได้เร็วกว่าคอมพิวเตอร์ธรรมดาขนาดไหนถึงแม้จะไม่มีประสิทธิภาพทั้งคู่ก็ตาม

ปัญหาทุกปัญหาตามที่นิยามข้างต้นสามารถถูกจำลองโดยระบบฟิสิกส์ได้โดยให้พลังงานเป็นฟังก์ชันค่าใช้จ่ายและใช้ระบบที่แทนค่าของตัวแปร เช่นถ้าแต่ละตัวแปรมีได้สองค่าเราก็ใช้สปิน-1/2 ไม่ต้องตกใจชื่อมัน ขอให้รู้แค่ว่ามัน “ชี้ขึ้น” หรือ “ชี้ลง” ได้ จากนั้นสิ่งที่เราต้องทำก็คือออกแบบผังการเปลี่ยนอุณหภูมิ (annealing schedule) โดยหวังว่าระบบจะหลบหล่มและเข้าสู่ระดับพลังงานที่ต่ำที่สุดได้ ซึ่งในกรณีที่เลวร้ายที่สุดของปัญหา (worst case) ระบบฟิสิกส์เองก็มักจะหาระดับพลังงานต่ำที่สุดของมันไม่เจอเหมือนกัน! จึงใช้ระบบฟิสิกส์ในการแก้ปัญหา NP-complete อย่างมีประสิทธิภาพไม่ได้ (การขดตัวของโปรตีนหรือการฟอร์มตัวของฟองสบู่ก็เหมือนกัน)

simulated_annealing

ไอเดียของ Quantum Annealing (QA) ก็คือถ้าระบบที่ติดหล่มเป็นระบบควอนตัม มันไม่จำเป็นที่จะต้องกระโดดข้ามกำแพงพลังงานแต่สามารถทะลุผ่านไปได้เลย ซึ่ง Farhi, Goldstone และ Gutmann ได้คำนวณไว้ตั้งแต่ 2002 แล้วว่าหากกำแพงสูงและบาง QA สามารถเร็วกว่า SA แบบเอ็กซ์โพเนนเชียลได้ แต่ยิ่งกำแพงกว้างขึ้นโอกาสที่จะทะลุก็ยิ่งลดลง

quantum_annealing

ดังนั้นเราสามารถใช้กำแพงพลังงานที่บางและสูงในการแสดง speedup ของเครื่องจักร D-Wave เทียบกับ SA ในการทดลองได้ คำถามก็คือถ้าเมื่อการทดลองสำเร็จ เราจะบอกได้ว่า QA บนเครื่องจักร D-Wave เร็วกว่าอัลกอริธึมดั้งเดิมได้หรือไม่? น่าเสียดายว่าคำตอบในตอนนี้คือไม่ ถ้าอย่างนั้นมีปัญหาอื่นที่ใช้ในการแสดง speedup ของเครื่องจักร D-Wave ได้หรือเปล่า? ไม่มีใครรู้คำตอบ ด้วยเหตุผลดังต่อไปนี้

สิ่งที่เครื่องจักร D-Wave ใช่และไม่ใช่

สมมติว่าใน QA เราไม่ได้ต้องการแค่ให้ระดับพลังงานต่ำสุด encode คำตอบของปัญหา optimization แต่ให้มันเป็นสถานะควอนตัมอะไรก็ได้ (และทำในอุณหภูมิ 0 K!) Aharonov et al. พิสูจน์ใน 2004 ว่าเราจะได้ควอนตัมคอมพิวเตอร์อเนกประสงค์ (adiabatic quantum computer) ที่สามารถรันควอนตัมอัลกอริธึมได้อย่างมีประสิทธิภาพตราบใดก็ตามที่ช่องว่างระหว่างระดับพลังงานเหนือระดับต่ำสุดไม่แคบเกินไป [1] โดยเฉพาะมันจะสามารถรันอัลกอริธึมแยกตัวประกอบที่มีทฤษฎีสนับสนุนว่าเร็วกว่าอัลกอริธึมดั้งเดิมที่ดีที่สุดที่เรารู้แบบเอ็กซ์โพเนนเชียลได้

เครื่องจักร D-Wave ถูกสร้างขึ้นมาเพื่อ QA โดยเฉพาะมาจากการเอาระบบตัวนำยิ่งยวดที่แทนสถานะ “ขึ้น” เมื่อมีกระแสไฟฟ้าไหลในทิศทางหนึ่งและ “ลง” เมื่อไหลอีกทิศทางหนึ่ง หรือเรียกว่า “ฟลักซ์ควอนตัมบิตที่ทำจาก Josephson junction” จากนั้นก็เชื่อมต่อควอนตัมบิตเข้าด้วยกันเป็นกราฟ (หมายถึงเน็ตเวิร์คไม่ไช่กราฟที่พล็อตกัน) ซึ่งแพทเทิร์นการเชื่อมต่อนี้เป็นตัวกำหนดระดับพลังงานที่เราวาดเป็นหุบเขาให้ระบบกระโดดไปมาข้างต้น (Hamiltonian) ด้วยเหตุผลทางวิศวกรรมการจะเชื่อมต่อทุกๆควอนตัมบิตทำได้ยาก D-Wave จึงตกลงใจที่จะทำการเชื่อมต่อที่พวกเขาให้ชื่อว่ากราฟ chimera โดยการแบ่งควอนตัมบิตเป็นกลุ่มๆ กลุ่มละ 8 ควอนตัมบิต ในกลุ่มเดียวกันจะมีการเชื่อมต่อที่หนาแน่นทำให้ควอนตัมบิตใดบิตหนึ่งเปลี่ยนทิศทางเป็นอิสระจากควอนตัมบิตที่เหลือในกลุ่มได้ยาก ข้อจำกัดในการเชื่อมต่อทำให้ Alex Selby เขียนอัลกอริธึมที่เร็วกว่าทั้ง SA, QMC (ด้านล่าง) และเครื่องจักร D-Wave ได้ ซึ่งในขณะที่ทีมของ Google เชื่อว่าอัลกอริธึมนี้จะไม่สามารถใช้ได้กับเครื่องจักร D-Wave รุ่นต่อไป (แต่ไม่ได้วิเคราะห์ในเปเปอร์) Selby ไม่เห็นด้วยและคิดว่าจะต้องมีการเปลี่ยนแปลงการเชื่อมต่อมากกว่านั้นมาก อัลกอริธึมดั้งเดิมจึงจะล้มเหลว

นอกจากนี้ฟลักซ์ควอนตัมบิตที่ทำจาก Josephson junction จำกัด Hamiltonian ที่เลือกได้ให้อยู่ในคลาสที่เรียกว่า stoquastic Hamiltonian คือ Hamiltonian ที่ไม่มี “ปัญหาเครื่องหมาย” (sign problem) ในฟิสิกส์ควอนตัมเรามักจะต้องคำนวณ matrix element ที่มาจาก Hamiltonian เพื่อที่จะอนุมานสมบัติต่างๆของระบบ มีอัลกอริธึมบนคอมพิวเตอร์ธรรมดาชื่อว่า path integral quantum Monte Carlo (เรียกสั้นๆว่า QMC) ที่คำนวณโดยการแปลง matrix element พวกนี้เป็นกระบวนการ stochastic (เลกเชอร์ของ Matthias Troyer อ่านรู้เรื่องดี) แต่ทริคนี้ใช้ไม่ได้เสมอไปโดยเฉพาะบางครั้งก็จะให้ “ความน่าจะเป็น” ที่ไม่ใช่จำนวนจริงบวกออกมา นี่คือปัญหาเครื่องหมายทำให้เราจำลองมันอย่างตรงไปตรงมาบนคอมพิวเตอร์ไม่ได้

ผลที่ตามมาสำหรับ D-Wave ก็คือ

  •  Bravyi et al. พิสูจน์ว่าถ้ามีแต่ stoquastic Hamiltonian จะแก้ปัญหาแค่ในคลาส BPPpath ได้อย่างมีประสิทธิภาพซึ่งเชื่อว่าไม่ครอบคลุมคลาส BQP ของปัญหาที่แก้ได้อย่างมีประสิทธิภาพด้วยควอนตัมคอมพิวเตอร์อเนกประสงค์ [2]
  • Hamiltonian ที่ stoquastic แปลว่าเรามักจะใช้ QMC ในการจำลองเครื่องจักร D-Wave อย่างมีประสิทธิภาพได้ (แต่ไม่เสมอไป) นี่เป็นเหตุผลหนึ่งที่ทีม Google ใช้ QMC จำลอง QA ได้ด้วยความเร็วที่ต่างกันด้วยแค่ค่าคงที่

จึงไม่มีใครรู้แน่ชัดว่าเครื่องจักร D-Wave จะแสดง speedup จากสมบัติทางควอนตัมได้หรือไม่

อนาคตของเครื่องจักร D-Wave

ถ้าอย่างนั้น D-Wave รุ่นต่อไปจะพัฒนาได้ในทางไหนบ้าง? ลดอุณหภูมิ ปรับปรุงการเชื่อมต่อ(และ error ในการทดลอง) เพื่อที่จะแมปปัญหาในโลกของความเป็นจริงลงในคอมพิวเตอร์ได้ทั้งจำนวนมากขึ้นและมีประสิทธิภาพมากขึ้น ออกนอก stoquastic Hamiltonian แต่ถ้าจะต้องการแสดงให้เห็น speedup เชิงควอนตัม D-Wave มีปัญหาใหญ่กว่านั้นและเป็นปัญหาทางทฤษฎีที่น่าสนใจมาก

ในหมู่นักวิชาการเชื่อกันว่าความอดทนต่อความผิดพลาด (fault tolerance)นั้นจำเป็นอย่างยิ่งในการสเกลควอนตัมคอมพิวเตอร์ให้ใหญ่พอที่จะแสดง speedup เชิงควอนตัมได้และนี่เป็น design choice ที่ D-Wave ไม่ให้ความสำคัญตั้งแต่แรกเริ่มต่างกับ approaches อื่นๆ มีงานวิจัยศึกษาการแก้ความผิดพลาด (error correction) ในโมเดล adiabatic แต่ความผิดพลาดก็ยังเกิดขึ้นได้ในการแก้ความผิดพลาดของการแก้ความผิดพลาดของ… การอดทนต่อความผิดพลาดทำให้คอมพิวเตอร์ยังทำงานต่อไปได้ตราบใดก็ตามที่อัตราการเกิดความผิดพลาดยังต่ำกว่าค่า threshold หนึ่ง ซึ่งการหา threshold ของโมเดล adiabatic ยังเป็นปัญหาปลายเปิด

ปัจจุบันเป็นเวลาที่น่าตื่นเต้นที่บริษัทยักษ์ใหญ่ทั้ง IBM, Intel, Microsoft, Google ระดมทุนวิจัยศึกษาควอนตัมคอมพิวเตอร์ในหลากหลายโมเดล (แม้กระทั่ง topological ที่ได้ชื่อว่า “ทฤษฎีสตริงของควอนตัมคอมพิวติง”!) และไม่มีใครรู้ว่าจะสำเร็จหรือไม่ โมเดลไหนจะชนะ หรือสุดท้ายทุกโมเดลจะอยู่ร่วมกันอย่างมีความสุข เราจะพบว่ามันสวยงามมากถ้าทุกๆโมเดลเป็นไปได้ทั้งหมดเพราะมันสื่อว่าปรากฎการณ์ทางฟิสิกส์ที่หลากหลายและดูแตกต่างกันในทฤษฎีควอนตัมมีสิ่งหนึ่งที่เหมือนกันก็คือพลังในการประมวลผลข้อมูล

[1] ช่องว่างนี้เรียกสั้นๆว่า gap ในที่นี้ไม่แคบเกินไปแปลว่าความกว้างอย่างน้อยต้องสเกลเป็น inverse polynomial ในจำนวนควอนตัมบิต (gap มักจะ inverse exponential สำหรับปัญหา NP-complete) โดยคร่าวๆแล้ว gap เกี่ยวกับเวลาที่ใช้ในการแก้ปัญหาเพราะถ้าช่องว่างเล็กแล้วเรารีบรันอัลกอริธึมระบบจะกระโดดขึ้นไปยังระดับพลังงานที่สูงกว่าได้ 

[2] เราคิดว่าเป็นเพราะ BPPpath อยู่ใน Polynomial Hierarchy แต่ BQP อาจจะมีส่วนที่ยื่นออกมาจาก PH (Scott Aaronson พิสูจน์ว่ามี oracle ที่ทำให้ BQP ⊄ BPPpath)