از کامپیوترهای اولیه تا کامپیوترهای کوانتومی و تشریح کوانتوم کامپیوترها

رویای محاسبات ماشینی یا ماشینی که بتواند مسائل را در اشکال گوناگون حل کند کمتر از دو قرن است که زندگی بشر را به‌طور جدی دربر گرفته‌است.

ابتدای قرن بیستم تلاش‌های زیادی جهت بهبود ماشین محاسبه مکانیکی صورت گرفت که همه آن‌ها بر پایه ریاضیات دهدهی بود.

ماشین‌ها محاسبات را همان‌طور که ما روی کاغذ انجام می‌دهیم انجام می‌دادند. چند سال بعد الگوریتم و مفهوم فرایندهای الگوریتمی به سرعت در ریاضیات و به تدریج سایر علوم رشد کرد. ریاضیدانان شروع به معرفی سیستم‌های جدیدی برای پیاده‌سازی الگوریتمی کلی کردند که در نتیجه آن، سیستم‌های انتزاعی محاسباتی به وجود آمدند.

هرچه امروز آن را علوم کامپیوتر می‌نامیم مدیون کار ریاضیدان برجسته انگلیسی به نام آلن تورینگ است.

تورینگ با استفاده از سیستم دودویی برای محاسبات به جای سیستم عددنویسی دهدهی که تا آن زمان در ماشین‌های مکانیکی مرسوم بود، انقلاب عظیمی را در این زمینه به وجود آورد.

افزایش قدرت و سرعت عملیاتی در کنار کوچک‌سازی زیر ساختها و اجزای بنیادی

جان فون نویمان یکی دیگر از نظریه پردازان بزرگ قرن بیستم موفق شد ماشین محاسبه‌گری را بر پایه طرح تورینگ و با استفاده از قطعات و مدارات الکترونیکی ابتدایی بسازد و به این ترتیب دانش کامپیوتر از ریاضیات جدا شد.

در دهه ۱۹۶۰، گوردن مور یکی از بنیانگذران شرکت اینتل ، قانون تجربی را که به قانون مور معروف است بیان کرد. این قانون پیش‌بینی می‌کند که به طور متوسط هر ۱۸ ماه تعداد ترانزیستورها بر روی یک تراشه با مساحت ثابت، دو برابر می‌شود.

در تمام این سال‌ها، تلاش عمده در جهت افزایش قدرت و سرعت عملیاتی در کنار کوچک‌سازی زیر ساختها و اجزای بنیادی بوده‌است. نظریه مور در دهه‌های ۶۰ و ۷۰ میلادی تقریباً درست بود. اما از ابتدای دهه ۸۰ میلادی و با سرعت گرفتن این پیشرفت‌ها و تکنولوژی، پرسش‌هایی مطرح شد که این کوچک سازی‌ها تا کجا می‌توانند ادامه پیدا کنند؟

کوچک کردن ترازیستورها و جمع کردن آن‌ها در فضای کمتر نمی‌تواند تا ابد ادامه داشته باشد. زیرا در حدود ابعاد نانومتری اثرات کوانتومی از قبیل تونل زنی الکترونی بروز می‌کنند. این پدیده در ریزپردازنده‌ها و پردازنده‌های سرعت بالا باعث اتصال کوتاه می‌شود. در نتیجه تمام یا بخشی از دستگاه الکترونیک از کار می‌افتد یا داغ می‌شود. پس نیاز به تغییر تکنولوژی یا تئوری کلی محاسبات بود.

پدیده ی تونل زنی کوانتومی

در این پدیده که اصطلاحا تونل زنی کوانتومی نامیده می شود یک ذره کوانتومی که پشت یک سد پتانسیل گیر افتاده و از نگاه فیزیک کلاسیک ، انرژی و امکان لازم برای عبور از مانع مزبور ندارد ممکن است براساس رابطه عدم قطعیت هایزنبرگ بتواند بطور موقت انرژی گرفته و ناگهان از مانع یا سد مقابل خود عبور کند و آن سوی آن برود. براساس معادله شرودینگر هر چه ارتفاع و عرض این مانع کمتر باشد احتمال عبور ذره مزبور از میان آن بیشتر خواهد بود.

وجود پدیده تونل زنی کوانتومی برای نخستین بار در سال ۱۹۲۷ میلادی توسط یک فیزیکدان آلمانی بنام فردریک هاند کشف شد. هنوز یک سال بیشتر نگذشته بود که فیزیکدان دیگری بنام جرج گاموف موفق شد بر مبنای همین پدیده شگفت انگیز معمای چگونگی گسیل ذرات آلفا از هسته های رادیواکتیو پرتو زا را حل کند. محاسبات گاموف نشان می داد که چگونه ذرانت آلفا به رغم نداشتن انرژی لازم برای رسیدن به قله سد پتانسل هسته اتمی می توانند با تونل زدن از میان این سد پتانسیل، از درون هسته اتمی فرار کرده و به بیرون هسته پرتاب شوند.

باید محاسبات را از دنیای دیجیتال وارد دنیای جدیدی به نام کوانتوم کرد

برای نخستین بار در سال ۱۹۸۲ ریچارد فاینمن فیزیکدان برجسته و برنده جایزه نوبل، پیشنهاد کرد که باید محاسبات را از دنیای دیجیتال وارد دنیای جدیدی به نام کوانتوم کرد که بسیار متفاوت از قبلی است و نه تنها مشکلات گذشته و محدودیت‌های موجود را بر طرف می‌سازد، بلکه افق‌های جدیدی را نیز به این مجموعه اضافه می‌کند.

این پیشنهاد تا اوایل دهه ۹۰ میلادی مورد توجه جدی قرار نگرفت تا بالاخره در ۱۹۹۴ پیتر شور از آزمایشگاه AT&T در آمریکا نخستین گام را برای محقق کردن این آرزو برداشت. به این ترتیب ارتباط نوینی بین نظریه اطلاعات و مکانیک کوانتومی شروع به شکل‌گیری کرد که امروز آن را محاسبات کوانتومی یا محاسبات نانومتری می‌نامیم.

هدف محاسبات کوانتومی یافتن روش‌هایی برای طراحی مجدد ادوات شناخته شده محاسبات (مانند گیت‌ها و ترانزیستورها) به گونه ایست که بتوانند تحت اثرات کوانتومی، که در محدوده ابعاد نانومتری و کوچکتر بروز می‌کنند، کار کنند.

کامپیوترهای کنونی چگونه کار می کنند؟

کامپیوترهای کنونی می‌توانند اعداد (۰ و ۱) را در حافظه خود ذخیره و روی آن‌ها عملیات ساده ریاضی (پردازش) را انجام دهند. عمل ذخیره‌سازی و پردازش توسط سوییچ‌هایی به نام ترانزیستور انجام می‌گیرد. ترانزیستورها را می‌توان نسخه‌ای میکروسکوپی از سوییچ‌هایی که روی دیوار جهت خاموش و روشن شدن چراغ‌ها استفاده می‌شود، در نظر بگیرید. در واقع یک ترانزیستور می‌تواند روشن و یا خاموش باشد. درست همان‌طور که نور می‌تواند روشن و یا خاموش شود. از ترانزیستور روشن می‌توانیم برای ذخیره یک (۱) و از خاموش بودن آن برای ذخیره صفر (۰) استفاده کنیم.

بیت کوچک‌ترین واحد پردازش اطلاعات کلاسیک است.

کامپیوتر‌ها با استفاده از مدارهای (دروازه – گیت) منطقی که از تعدادی ترانزیستور ساخته شده‌اند، محاسبات و پردازش را بر روی بیت‌ها انجام می‌دهند. یک گیت منطقی حالت یک بیت را سنجیده و در حافظه‌ای موقت موسوم به رجیستری ذخیره می‌کند. سپس آن‌ها را به حالت جدیدی تبدیل می‌کند. در واقع معادل عمل جمع، تفریق یا ضرب که ما در ذهن خود انجام می‌دهیم. یک الگوریتم در سطح پایین و به صورت فیزیکی، در واقع متشکل از چندین گیت منطقی است که کنار یکدیگر تشکیل یک مدار الکترونیکی را داده‌اند. این مدار محاسبه یا عمل خاصی را انجام می‌دهد.

پایان قانون مور؟

در چند سال اخیر فرآیند ساخت ترانزیستورها و لیتوگرافی‌های کمتر از ۱۰ نانومتر با مشکلاتی مواجه بوده و به کندی پیش می‌رود. در واقع به نظر می‌رسد که قانون مور به پایان عمر خود نزدیک است. جدا از راهکارهای کلاسیکی برای رفع مشکلات، می‌توانیم رویکردهای فیزیک کوانتومی را بررسی و علم محاسبات را به دنیای کوانتومی وارد کنیم.

نظریه و فیزیک کوانتوم قوانین حاکم بر دنیای میکروسکوپی، اتم‌ها و ذرات زیر اتمی را تشریح می‌کند. همان‌طور که احتمالاً می‌دانید، در مقیاس‌های اتمی، قوانین فیزیک کلاسیک دیگر کارایی نداشته و نیاز است تا قوانین جدیدی را به کار بریم.

در کتاب‌های اپتیک، نور را موجودی دوگانه (موج و ذره) تعریف می‌کنند. در واقع نور بخشی از طیف امواج الکترومغناطیسی است که در عین حال یک ذره (فوتون) هم می‌تواند باشد! شاید بپرسید چگونه یک چیز واحد می‌تواند دو موجودیت داشته باشد؟!  در دنیای کوانتوم نظیر چنین مطالبی امری عادی است. به جز بحث دوگانگی موج – ذره نور، یکی دیگر از مثال‌های معروف دنیای فیزیک کوانتوم، گربه شرودینگر است. این گربه که در جعبه‌ای قرار دارد، در هر لحظه هم ‌می‌تواند زنده باشد و هم مرده!

حال فرض کنید که ما همچنان بتوانیم ابعاد ترانزیستورها را کوچک و کوچکتر کنیم تا قانون مور پابرجا بماند. این ترانزیستورهای کوچک دیگر مثل ترانزیستورهای قدیمی مطابق قوانین فیزیک کلاسیک کار نکرده و از قوانین پیچیده‌تر فیزیک کوانتومی پیروی می‌کند.

لاندائور فیزیکدان شرکت IBM   در دهه ۱۹۶۰ مطرح کرد که اطلاعات ماهیتی فیزیکی دارند که با توجه به قوانین فیزیکی می‌توانند تغییر کنند.

کیوبیت واحد اصلی کامپیوترهای کوانتومی

ویژگی‌های اصلی کامپیوترهای معمولی نظیر بیت‌، الگوریتم، گیت‌های منطقی و … است و  به طور مشابه در کامپیوترهای کوانتومی نیز وجود دارند. اصلی‌ترین جزء یک کامپیوتر کوانتومی، در واقع واحد پردازش اطلاعات، بیت کوانتومی یا کیوبیت است. یک بیت کلاسیک در هر لحظه تنها می‌تواند یکی از دو مقدار ۰ و ۱ را داشته باشد؛ اما یک کیوبیت در هر لحظه هم می‌تواند ۰ باشد و هم ۱ یا حتی هر چیزی دیگری بین ۰ و ۱ !

فرض کنید که یک سکه را درون جعبه‌ای انداخته و تکان می‌دهیم. به نظر شما وضعیت سکه به چه صورت است؟ احتمالاً پاسخ می‌دهید که حالت سکه یا شیر و یا خط است. اما از نظر مکانیک کوانتومی وضعیت سکه نه شیر است و نه خط، بلکه وضعیت آن به صورت برهمنهی از حالت شیر و خط است. در واقع تا قبل از باز کردن در جعبه نمی‌توانیم وضعیت سکه را با یک بیت کلاسیکی معادل سازی کنیم.

وضعیت گربه داخل جعبه شرودینگر (زنده یا مرده!) هم ‌می تواند مثالی از یک کیوبیت باشد. در اینجا نیز قبل از اندازه‌گیری نمی‌توانیم به طور ۱۰۰٪ در مورد وضعیت گربه که آن را با یک کیوبیت معادل‌سازی کردیم، اظهار نظر کنیم

یک کیوبیت در حالت برهمنهی  (Superposition) از حالت‌های پایه ۰ و ۱ است.

برای مشخص شدن حالت کیوبیت باید آن را اندازه‌گیری کرد، در این صورت حالت برهمنهی ازبین رفته و کیوبیت با یک احتمالی در ۰ و یا ۱ ظاهر می‌شود.

در اصل در فیزیک کوانتوم یک الکترون در اتم می تواند در STATE های مختلفی باشد با درصد احتمال مشخص. همه ی این STATE ها را در نظر باید گرفت و وقتی به طور قطع می توانیم بگیم که الکترون در کدام ناحیه قرار دارد که آن را با ابزارهای موجود اندازه گیری کنیم.

آیا کامپیوترهای کوانتومی جایگزین کامپیوترهای عادی می‌شوند؟

شاید بتوان با قطعیت پاسخ خیر را به این سوال داد. از آنجایی که تعریف کیوبیت‌ها شرایط خاصی (مثل خلأ بالا و یا دمای خیلی پایین) را طلب می‌کند، دور از انتظار است که در آینده، تلفن همراه و یا کامپیوتر خانگی شما حاوی تراشه‌ای کوانتومی باشد.

کامپیوتر کوانتومی تنها حالت خاصی از کامپیوتر است که برای انجام و اجرای الگوریتم‌هایی خاص توسعه پیدا کرده است.

گوگل یکی از پیشگامان این حوزه اخیرأ موفق به ساخت کامپیوتر کوانتومی شده است که ۱۰۰ میلیون بار سریع تر از کامپوترهای فعلی است.

محققان این شرکت در مقاله‌ای در نشریه علمی نیچر گفتن با دستیابی به فناوری جدید، انجام محاسبه‌ای که با پیشرفته‌ترین کامپیوتر حال حاضر جهان موسوم به سامیت ۱۰ هزار سال طول می‌کشد در ۳ دقیقه و ۲۰ ثانیه امکان‌پذیر شده‌است.

چنین تکنولوژی زمانی بسیار اهمیت خواهد یافت که ما بخواهیم حجم بسیار عظیمی از داده را تحلیل و مسایل با سطح پیچیدگی بالا را به سرعت حل کنیم.