محاسبات کوانتومی : داستان پرفراز و نشیب رسیدن به باشکوه‌ترین فناوری‌ کوانتومی (قسمت اول)

محاسبات کوانتومی : داستان پرفراز و نشیب رسیدن به باشکوه‌ترین فناوری‌ کوانتومی (قسمت اول)

همه چیز از این مقاله‌ی ریچارد فاینمن شروع شد: There's Plenty of Room at the Bottom. مقاله‌ای که فاینمن با آن به همگان اعلام کرد نباید از فرصت‌های زیادی که محاسبات کوانتومی در اختیارمان می‌گذارد، غافل شویم.

پس از آن، چشم‌ها به این حوزه دوخته شد و تلاش‌ها آغاز گردید. از آن زمان، پیشرفت‌های چشمگیری در این حوزه رخ داده و افق‌های جدیدی پدیدار گشته است. در مجموعه مقالات محاسبات کوانتومی، سعی خواهیم کرد تا نگاهی مختصر اما جامع به این حوزه انداخته و جنبه‌های مختلف این فناوری مهم کوانتومی را بررسی نماییم. بخش‌های مختلف این مجموعه مقالات به شرح زیر خواهند بود:

  • معرفی
  • تاریخچه
  • مبانی و مفاهیم
  • تحقق فیزیکی
  • کاربردها
  • چشم‌انداز و افق‌های پیش رو

معرفی

در طول 50 سال گذشته، کوچک‌سازی (miniaturization) عجیبی در فناوری‌های کامپیوتری رخ داده است. در حالیکه یک ریزپردازنده‌ در سال 1971، حدود 2300 ترانزیستور داشت، یک ریزپردازنده‌ی مدرن با همان اندازه، بیش از یک میلیارد ترانزیستور دارد. با اینکه در طول این تحول، تغییراتی در چگونگی پیاده‌سازی سخت‌افزاری کامپیوتر به وجود آمده، اما مدل ریاضی زیربنایی، همیشه یکسان بوده است. با پیشرفت این روند، اجزای بنیادی یک کامپیوتر، تقریبا به اندازه تک‌اتم‌ها خواهند شد. در چنین مقیاسی، نظریه‌ی ریاضی زیربنایی علم کامپیوتر مدرن، دیگر معتبر نخواهد بود. بنابراین دانشمندان در حال توسعه‌ی نظریه‌ی جدیدی هستند که محاسبات کوانتومی نام دارد. در این نظریه، باور بر آن است که یک دستگاه محاسباتی، یک سیستم فیزیکی است که با قوانین فیزیکی کنترل می‌شود و در مقیاس‌های بسیار کوچک، قوانین مناسب، قوانین فیزیک کوانتومی هستند.

فیزیک کوانتومی به طور قابل توجهی با فیزیک کلاسیکی، متفاوت است. حقایق شهودی که در زندگی روزمره با عقل سلیم جور درمی‌آیند، لزوما در قلمروی کوانتومی حفظ نمی‌شوند. مثلا در جهان کلاسیکی، به مکان قطعی ذرات در فضا و زمان عادت کرده‌ایم، اما در جهان کوانتومی، ذرات، یک مکان قطعی در فضا و زمان ندارند، در حقیقت، آن‌ها می‌توانند در بیش از یک مکان باشند، یا به طور همزمان در بیش از یک حالت. عجیب‌تر آنکه در این قلمرو، فرض می‌شود ذرات می‌توانند با یکدیگر به شیوه‌ی موجی‌ برهمکنش کنند. از آنجایی که بیت‌ها باید در حالات سیستم‌های فیزیکی رمزگذاری شوند،‌ کوانتومی یا کلاسیکی بودن سیستم‌ها می‌تواند ویژگی‌های بیت‌ها را عمیقا تحت تاثیر قرار دهد.

دو نگرش در بحث لزوم مشارکت اثرات مکانیک کوانتومی در تشکیلات محاسباتی می‌توان اتخاذ کرد: نگرش اول اینکه اثرات کوانتومی را سرکوب کنیم و حتی با وجود آنکه عناصر محاسباتی، بسیار کوچک هستند، باز هم کلاسیکی بودن را حفظ نماییم. رویکرد دیگر آن است که به اثرات کوانتومی خوش‌آمد گوییم و تلاش کنیم راه‌های هوشمندانه‌ای برای بهبود و تقویت آن‌ها به منظور رسیدن به اهداف محاسباتی قدیمی به شیوه‌های جدید بیابیم.

دانشمندان رویکرد دوم را برگزیدند و در دهه‌های گذشتهی قرن بیستم، به دنبال ادغام دو مورد از تاثیرگذارترین و انقلابی‌ترین نظریات این قرن رفتند: نظریه اطلاعات و مکانیک کوانتومی. موفقیت آن‌ها منجر به نگرش جدیدی در محاسبات و اطلاعات شد. این نگرش جدید، نظریه اطلاعات کوانتومی است که محاسبات، اطلاعات و ارتباط آن‌ها با فیزیک را تغییر داده و الهام‌بخش کاربردهای جدیدی مانند برخی الگوریتم‌ها و روش‌های متفاوت شده است.

نظریه اطلاعات که هم شامل بنیان‌های علم کامپیوتر و هم ارتباطات است، جهان فیزیکی را چنان ساده‌سازی کرده که صحبت درباره‌ی مسائل مهمی در علم کامپیوتر و ارتباطات مانند بهره‌وری یک الگوریتم یا استحکام یک روش ارتباطی، بدون فهم جزییات دستگاه‌های فیزیکی مورد استفاده برای محاسبه یا ارتباط، ممکن باشد. قدرت این چشم‌پوشی از فیزیک زیربنایی ثابت شده؛ و موفقیتش می‌تواند در تمام دستگاه‌های محاسباتی و ارتباطی اطراف ما دیده شود. نپرداختن به جزییات فیزیکی، بخشی از چشم‌انداز هوشمندانه‌ای شده بود که فرضیات پشت آن، تقریبا فراموش شدند. علم اطلاعات تا همین اواخر، به طور محکمی ریشه در مکانیک کلاسیکی داشته، مثلا ماشین تورینگ، یک مدل کلاسیکی است که طبق اصول مکانیک کلاسیکی خالص رفتار می‌کند. این در حالی است که مکانیک کوانتومی، زیربنای کار دستگاه‌های ارتباطی و کامپیوترهای کلاسیکی و سنتی است، از ترانزیستور و لیزر گرفته تا تازه‌ترین پیشرفت‌های سخت‌افزاری که سرعت و قدرت را افزایش داده و اندازه‌ی اجزای ارتباطی و کامپیوتری را کاهش می‌دهند.

پردازش اطلاعات کوانتومی، حوزه‌ی وسیعی است که حوزه‌های کوچکتر محاسبات کوانتومی، رمزنگاری کوانتومی، ارتباطات کوانتومی و بازی‌های کوانتومی را در خود جای داده است. این نظریه، کاربردهای استفاده از مکانیک کوانتومی به جای مکانیک کلاسیکی را برای مدل‌سازی اطلاعات و پردازش آن‌ها، دنبال می‌کند. محاسبات کوانتومی مربوط به تغییر بستر فیزیکی محاسبات، از کلاسیکی به کوانتومی نیست، بلکه به تغییر مفهوم خود اطلاعات ربط دارد. این تغییر، از بنیادی‌ترین سطح آغاز می‌شود: واحد بنیادی محاسبات، دیگر بیت نیست، بلکه بیت کوانتومی یا کیوبیت است. قرار دادن محاسبات روی یک بنیان کوانتومی،‌ منجر به کشف الگوریتم‌های سریع‌تر، مکانیسم‌های رمزنگاری جدید و روش‌های ارتباطی بهبودیافته شد.

کامپیوترهای کلاسیکی، همان دستگاه‌هایی که روی میزهایمان داریم، از مکانیک کوانتومی استفاده می‌کنند، اما محاسبات را با استفاده از بیت‌‌ها انجام می‌دهند، نه کیوبیت‌ها و به همین دلیل، به عنوان کامپیوترهای کوانتومی درنظر گرفته نمی‌شوند. کوانتومی یا کلاسیکی بودن یک کامپیوتر، به اینکه آیا اطلاعات به شیوه‌ی کلاسیکی یا کوانتومی، نمایش داده شده و دستکاری می‌شوند، بستگی دارد. محاسبات کوانتومی پیش‌بینی می‌کند کامپیوترهای کوانتومی قادر خواهند بود کارهای محاسباتی معینی را بسیار سریع‌تر نسبت به هر کامپیوتر کلاسیکی یا سنتی (از جمله قوی‌ترین ابرکامپیوترهای امروزی) انجام دهند. این ادعای جسورانه، موجه است، زیرا الگوریتم‌های در دسترس کامپیوترهای کوانتومی می‌توانند پدیده‌های فیزیکی که برای کامپیوترهای کلاسیکی در دسترس نیستند را، مهار کنند. در نتیجه، کامپیوترهای کوانتومی می‌توانند محاسبات را به شیوه‌های اساسا جدیدی انجام دهند که در بهترین حالت فقط می‌توانند توسط کامپیوترهای کلاسیکی تقلید شوند. بنابراین محاسبات کوانتومی، باعث تغییری کیفی در چگونگی انجام محاسبات شده و ماهیتی متفاوت با تمام پیشرفت‌های قبلی در علم کامپیوتر به آن می‌بخشند. کامپیوترهای کوانتومی می‌توانند کارهای واقعا بی‌سابقه، مانند تله پورت اطلاعات و ارتباطات ضد هک را انجام دهند. قابلیت‌های عجیبی که در حال کشف شدن هستند، محاسبات کوانتومی را به یک حوزه‌ی هیجان‌انگیز و بسیار فعال تبدیل می‌کنند.

تاریخچه

فناوری کوانتومی به سمت مقیاس‌های کوچک و کوچک‌تر پیش رفته است، زیرا در نهایت، عامل محدودکننده‌ی سرعت ریزپردازنده‌ها، سرعت حرکت اطلاعات درون دستگاه است. با نزدیک‌تر کردن ترانزیستورها به یکدیگر و رفتن به سمت مکانیسم‌های سریع‌تر سوییچ‌زنی می‌توان سرعت محاسبات را افزایش داد، اما هزینه‌ای وجود دارد که باید پرداخت شود. با نزدیک‌تر شدن ترانزیستورها به یکدیگر، حذف گرمایی که پخش می‌کنند، سخت‌تر می‌شود. بنابراین در هر مرحله‌ای از توسعه‌ی فناوری،‌ همیشه یک تراکم بهینه‌ی ترانزیستور وجود دارد که در آن، دو عامل اندازه‌ و گرما، به درستی سبک و سنگین شده‌اند.

در سال 1965، گوردون مور (Gordon Moore)، هم‌بنیان‌گذار شرکت اینتل دریافت که مطلوب‌ترین تراکم‌های به لحاظ اقتصادی ترانزیستور‌ در مدارهای مجتمع، تقریبا هر 18 ماه، دوبرابر می‌شوند. او پیش‌بینی کرد که این روند در آینده ادامه پیدا خواهد کرد. این پیش‌بینی درست از آب درآمد و  به عنوان قانون مور مشهور شد. با این حال، قانون مور، یک قانون علمی واقعی نیست،‌ چرا که طبیعت آن را تحمیل نمی‌کند، بلکه صرفا یک مشاهده‌ی تجربی از نظم مقیاس‌بندی در اندازه و پراکندگی توان است که صنعت به آن رسیده بود و گوردون مور آن را به آینده برون‌یابی کرد. با این حال، معلوم نیست در صنعت تراشه‌ی امروزی، قانون مور چقدر می‌تواند دوام بیاورد. جالب اینکه با گذشت بیش از 40 سال از ابداع قانون مور، نسل‌های بعدی تراشه‌های اینتل، به طور شگفت‌انگیزی از این قانون پیروی کرده‌اند. این حقیقت، وقتی شگفت‌انگیزتر می‌شود که بفهمیم فناوری زیربنایی ترانزیستور چقدر تغییر کرده است. سازندگان تراشه‌ در حال مهاجرت به سمت معماری‌های ریزپردازنده‌ی چندهسته‌ای و مواد نیمه رسانای جدید و عجیب هستند.

برون‌یابی مقیاس بندی در تعداد اتم‌های مورد نیاز برای اجزای یک بیت، به عنوان تابعی از زمان نشان می‌دهد که ما در سال 2020، به مرز یک اتم برای هر بیت می‌رسیم. در سطح یک اتم به ازای یک بیت، مدل فیزیکی مناسب برای توصیف سیستم، قطعا فیزیک کوانتومی به جای فیزیک کلاسیکی است.

حوزه‌ی پردازش اطلاعات کوانتومی، به آرامی در دهه‌ی 1980 و اوایل دهه‌ی 1990 و توسط گروه کوچکی از محققان که روی یک نظریه‌ی اطلاعات کوانتومی و پردازش اطلاعات کوانتومی کار می‌کردند، توسعه یافت. چارلز بنت (Charles Bennett) و گیلس براسارد (Gilles Brassard)، بر پایه‌ی ایده‌های استفن ویزنر (StephenWiesner) نشان دادند که چطور ویژگی‌های غیرکلاسیکی اندازه گیری کوانتومی، یک مکانیسم قابل اثبات امن را برای ایجاد یک کلید رمزنگاری فراهم می‌کند. ریچارد فاینمن (Richard Feynman)، یوری مانین (Yuri Manin) و سایرین تشخیص دادند که نمی‌توان پدیده‌های کوانتومی معینی (پدیده‌هایی که دارای ذرات درهم تنیده هستند) را به طور کارآمدی با یک ماشین تورینگ، شبیه سازی کرد. این امر منجر به این تفکر شد که شاید بتوان این پدیده‌های کوانتومی را برای سرعت بخشیدن به محاسبات استفاده کرد. برای تحقق چنین برنامه‌ای، لازم بود تا در مورد مدل نظری اطلاعات، بازنگری شده و صرفا کلاسیکی به آن نگاه نشود.

دیوید دوچ (David Deutsch)، یک مفهوم ماشین تورینگ کوانتومی را توسعه داد. دنیل برنشتاین (Daniel Bernstein)، ویجی وزیرانی (Vijay Vazirani) و اندرو یائو (Andrew Yao)، مدل او را بهبود بخشیدند و نشان دادند که یک ماشین تورینگ کوانتومی می‌تواند یک ماشین تورینگ کلاسیکی را شبیه سازی کند و بنابراین هر محاسبه‌ی کلاسیکی را حداکثر با یک زمان چندجمله‌ای انجام دهد. سپس مدل مدار کوانتومی استاندارد تعریف شد که منجر به درک پیچیدگی کوانتومی به صورت یک مجموعه از تبدیلات کوانتومی بنیادی به نام  گیت های کوانتومی گردید.

در اوایل دهه‌ی 1990، محققان نخستین الگوریتم های کوانتومی واقعی را توسعه دادند. برخلاف ماهیت احتمالاتی مکانیک کوانتومی، نخستین الگوریتم‌های کوانتومی، پاسخ درست را با قطعیت می‌دهند. آن‌ها الگوریتم‌های کلاسیکی را با حل یک مسئله در زمان چندجمله‌ای و با قطعیت بهبود می‌بخشند، مسئله‌ای که با استفاده از تکنیک‌های کلاسیکی، فقط می‌تواند با احتمال بالا در زمان چندجمله‌ای حل شود. چنین نتیجه‌ای، جاذبه‌ی کاربردی مستقیمی ندارد، زیرا غیرممکن بودن ساخت یک ماشین کامل،‌ احتمال اینکه یک ماشین کاربردی، هر الگوریتمی را برای حل یک مسئله، فقط با احتمال بالا اجرا کند، کاهش می‌دهد. اما این نتایج، جاذبه‌ی نظری زیادی داشتند، زیرا برای اولین بار نشان دادند که محاسبات کوانتومی برای مسائل محاسباتی خاصی، به طور نظری، قدرتمندتر از محاسبات کلاسیکی هستند.

این نتایج، علاقه‌ی محققان زیادی از جمله پیتر شور (Peter Shor) را برانگیخت، کسی که در سال 1994، همگان را با الگوریتم کوانتومی زمان چندجمله‌ای‌اش برای فاکتورگیری اعداد صحیح شگفت‌زده کرد. خیلی وقت بود که محققان در جستجوی یک راه حل زمان چند جمله‌ای کلاسیکی بودند، تا جایی که کاملا تقریبا مطمئن شدند چنین راه حلی وجود ندارد. معلوم نیست که آیا یک راه حل کلاسیکی کارآمد وجود دارد یا نه، بنابراین نتیجه‌ی شور ثابت نمی‌کند که کامپیوترهای کوانتومی می‌توانند یک مسئله را بسیار کارآمدتر از یک کامیپوتر کلاسیکی حل کنند. اما حتی اگر یک الگوریتم کلاسیکی زمان چندجمله‌ای برای این مسئله پیدا شود، باز هم اینکه یک الگوریتم کوانتومی راحت‌تر پیدا شده، برخلاف تمام جنبه‌های غیرشهودی مکانیک کوانتومی، نشانه‌ی اثرگذاری نگرش نظریه اطلاعات کوانتومی است.

در حالیکه نتیجه‌ی شور، علاقه‌ی زیادی را در این حوزه برانگیخت، اما تردیدها در مورد کاربردی بودن آن، باقی ماند. سیستم‌های کوانتومی، به شدت، شکننده و حساس هستند. ویژگی‌های کلیدی مانند درهم تنیدگی کوانتومی، به راحتی با تاثیرات محیطی، مختل شده و در نتیجه حالت کوانتومی، واهمدوس می‌شود. ویژگی‌های مکانیک کوانتومی، مانند غیرممکن بودن تکثیر مطمئن یک حالت کوانتومی نامعلوم، امکان پیدا کردن تکنیک‌های تصحیح خطای کارآمد برای محاسبات کوانتومی را بسیار دشوار می‌کنند. به همین دلایل، بعید است کامپیوترهای کوانتومی مطمئن بتوانند ساخته شوند.

خوشبختانه برخلاف تردیدهای جدی در مورد اینکه آیا پردازش اطلاعات کوانتومی  می‌تواند هرگز کاربردی شود یا نه، محققان همچنان به کشف لایه‌های پنهان آن ادامه دادند. در نتیجه در سال 1996، شور و رابرت کالدربنک (Robert Calderbank) و به طور مستقل، اندرو استین (Andrew Steane)، راهی برای سازگار کردن مسائل چالش‌برانگیز مکانیک کوانتومی برای توسعه‌ی تکنیک‌های تصحیح خطای کوانتومی یافتند. مسلما امروزه، تصحیح خطای کوانتومی، بالغ‌ترین حوزه‌ی پردازش اطلاعات کوانتومی است.

هنوز معلوم نیست محاسبات کوانتومی و اطلاعات کوانتومی کاربردی، چگونه از کار درخواهند آمد. هیچ اصل فیزیکی بنیادی شناخته نشده که بتواند مانع ساخت کامپیوترهای کوانتومی قابل اعتماد و بزرگ‌مقیاس شود، اما مسائل مهندسی همچنان باقی می‌مانند. آزمایشگران موفق شده‌اند محاسبات کوانتومی را با چند بیت کوانتومی و از طریق چند هزار عمل کوانتومی انجام دهند. رویکردهای نویدبخش بسیاری توسط نظریه‌پردازان و تجربی‌کاران سرتاسر دنیا پیشنهاد شده، اما هنوز عدم قطعیت زیادی در مورد اینکه چگونه، کی و اینکه حتی آیا یک کامپیوتر کوانتومی قادر به انجام محاسبات کوانتومی روی هزاران کیوبیت، ساخته خواهد شد یا نه، وجود دارد.

رویکردهای محاسبات کوانتومی، روش‌های کلاسیکی را برای برخی کارهای خاص بهبود می‌بخشند. در واقع، گستردگی کاربردپذیری محاسبات کوانتومی، هنوز کاملا تعیین نشده است. معلوم شده محدودیت‌های جدی روی قدرت محاسبات وجود دارد. از طرفی ثابت گردیده که محاسبات کوانتومی برای بسیاری از مسائل، هیچ پیشرفت مهمی نسبت به محاسبات کلاسیکی نداشته‌ است. الگوریتم گرور (Grover’s algorithm) که اواسط دهه‌ی 1990 کشف گردید، بهبود سرعت اندکی برای الگوریتم‌های جستجوی بدون ساختار فراهم می‌کند. اما همچنین معلوم شده که این افزایش سرعت اندک، بیشترین چیزی است که الگوریتم‌های کوانتومی می‌توانند به آن دست یابند. الگوریتم جستجوی گرور، به جستجوی بدون ساختار اعمال می‌شود. برای سایر مسائل جستجو، مانند جستجوی یک لیست مرتب، محاسبات کوانتومی، هیچ پیشرفتی نسبت به محاسبات کلاسیکی به دست نمی‌دهند. شبیه سازی سیستم های کوانتومی، دیگر کاربرد مهم محاسبات کوانتومی است که در اواسط دهه‌ی 1990 شناخته شد.

پس از الگوریتم گرور و قبل از آنکه، الگوریتم جدید و مهم دیگری کشف شود، یک وقفه‌ی حدودا ۵ ساله پیش آمد. در طول آن زمان، سایر حوزه‌های پردازش اطلاعات کوانتومی، مانند تصحیح خطای کوانتومی، به طور قابل توجهی پیشرفت کردند. در اوایل دهه‌ی 2000، چند الگوریتم جدید کشف شدند. این الگوریتم‌ها مانند الگوریتم شور، مسائل خاصی را با کاربردهای اندک، حل کردند. از طرفی، رویکردهای تازه برای ساخت الگوریتم‌های کوانتومی توسعه یافت.

مطالعه‌ی شبیه سازی کوانتومی از نقطه‌نظر پردازش اطلاعات کوانتومی منجر به تکنیک‌های کلاسیکی بهبودیافته برای شبیه سازی سیستم‌های کوانتومی و همچنین رویکردهای کوانتومی جدید شده است. به طور مشابه، نقطه‌نظر پردازش اطلاعات کوانتومی، منجر به نگرش‌های جدیدی به محاسبات کلاسیکی، مانند الگوریتم‌های کلاسیکی جدید شده است. به علاوه جایگزین‌های مدل مدار استاندارد محاسبات کوانتومی، توسعه یافته که منجر به الگوریتم‌های کوانتومی جدید، پیشرفت‌های مهمی در ساخت کامپیوترهای کوانتومی و نگر‌ش‌های مهمی به عناصر کلیدی محاسبات کوانتومی شده است.

با این حال، تا ساخت یک کامپیوتر کوانتومی قابل مقیاس‌بندی، راه زیادی باقی مانده و فارغ از اینکه کاربردهای آن چه باشند، پردازش اطلاعات کوانتومی، نحوه‌ی درک فیزیک کوانتومی را برای همیشه تغییر داده‌ است. پردازش اطلاعات کوانتومی به روشن شدن ماهیت جنبه‌های کلیدی مکانیک کوانتومی مانند اندازه گیری کوانتومی و درهم تنیدگی کمک شایانی کرده است. به سختی می‌توان نتایج کاربردی این درک افزایش یافته‌ی طبیعت را پیش‌بینی کرد، اما قطعا اتحاد دو نظریه‌ای که عمیق‌ترین تاثیر را بر پیشرفت‌های فناوری قرن بیستم داشتند، اثرات عمیقی روی توسعه‌ها و فناوری‌های قرن بیست و یکم نیز خواهد داشت.
 


ادامه دارد...