رویای محاسبات ماشینی یا ماشینی که بتواند مسائل را در اشکال گوناگون حل کند کمتر از دو قرن است که زندگی بشر را بهطور جدی دربر گرفتهاست.
ابتدای قرن بیستم تلاشهای زیادی جهت بهبود ماشین محاسبه مکانیکی صورت گرفت که همه آنها بر پایه ریاضیات دهدهی بود.
ماشینها محاسبات را همانطور که ما روی کاغذ انجام میدهیم انجام میدادند. چند سال بعد الگوریتم و مفهوم فرایندهای الگوریتمی به سرعت در ریاضیات و به تدریج سایر علوم رشد کرد. ریاضیدانان شروع به معرفی سیستمهای جدیدی برای پیادهسازی الگوریتمی کلی کردند که در نتیجه آن، سیستمهای انتزاعی محاسباتی به وجود آمدند.
هرچه امروز آن را علوم کامپیوتر مینامیم مدیون کار ریاضیدان برجسته انگلیسی به نام آلن تورینگ است.
تورینگ با استفاده از سیستم دودویی برای محاسبات به جای سیستم عددنویسی دهدهی که تا آن زمان در ماشینهای مکانیکی مرسوم بود، انقلاب عظیمی را در این زمینه به وجود آورد.
افزایش قدرت و سرعت عملیاتی در کنار کوچکسازی زیر ساختها و اجزای بنیادی
جان فون نویمان یکی دیگر از نظریه پردازان بزرگ قرن بیستم موفق شد ماشین محاسبهگری را بر پایه طرح تورینگ و با استفاده از قطعات و مدارات الکترونیکی ابتدایی بسازد و به این ترتیب دانش کامپیوتر از ریاضیات جدا شد.
در دهه ۱۹۶۰، گوردن مور یکی از بنیانگذران شرکت اینتل ، قانون تجربی را که به قانون مور معروف است بیان کرد. این قانون پیشبینی میکند که به طور متوسط هر ۱۸ ماه تعداد ترانزیستورها بر روی یک تراشه با مساحت ثابت، دو برابر میشود.
در تمام این سالها، تلاش عمده در جهت افزایش قدرت و سرعت عملیاتی در کنار کوچکسازی زیر ساختها و اجزای بنیادی بودهاست. نظریه مور در دهههای ۶۰ و ۷۰ میلادی تقریباً درست بود. اما از ابتدای دهه ۸۰ میلادی و با سرعت گرفتن این پیشرفتها و تکنولوژی، پرسشهایی مطرح شد که این کوچک سازیها تا کجا میتوانند ادامه پیدا کنند؟
کوچک کردن ترازیستورها و جمع کردن آنها در فضای کمتر نمیتواند تا ابد ادامه داشته باشد. زیرا در حدود ابعاد نانومتری اثرات کوانتومی از قبیل تونل زنی الکترونی بروز میکنند. این پدیده در ریزپردازندهها و پردازندههای سرعت بالا باعث اتصال کوتاه میشود. در نتیجه تمام یا بخشی از دستگاه الکترونیک از کار میافتد یا داغ میشود. پس نیاز به تغییر تکنولوژی یا تئوری کلی محاسبات بود.
پدیده ی تونل زنی کوانتومی
در این پدیده که اصطلاحا تونل زنی کوانتومی نامیده می شود یک ذره کوانتومی که پشت یک سد پتانسیل گیر افتاده و از نگاه فیزیک کلاسیک ، انرژی و امکان لازم برای عبور از مانع مزبور ندارد ممکن است براساس رابطه عدم قطعیت هایزنبرگ بتواند بطور موقت انرژی گرفته و ناگهان از مانع یا سد مقابل خود عبور کند و آن سوی آن برود. براساس معادله شرودینگر هر چه ارتفاع و عرض این مانع کمتر باشد احتمال عبور ذره مزبور از میان آن بیشتر خواهد بود.
وجود پدیده تونل زنی کوانتومی برای نخستین بار در سال ۱۹۲۷ میلادی توسط یک فیزیکدان آلمانی بنام فردریک هاند کشف شد. هنوز یک سال بیشتر نگذشته بود که فیزیکدان دیگری بنام جرج گاموف موفق شد بر مبنای همین پدیده شگفت انگیز معمای چگونگی گسیل ذرات آلفا از هسته های رادیواکتیو پرتو زا را حل کند. محاسبات گاموف نشان می داد که چگونه ذرانت آلفا به رغم نداشتن انرژی لازم برای رسیدن به قله سد پتانسل هسته اتمی می توانند با تونل زدن از میان این سد پتانسیل، از درون هسته اتمی فرار کرده و به بیرون هسته پرتاب شوند.
باید محاسبات را از دنیای دیجیتال وارد دنیای جدیدی به نام کوانتوم کرد
برای نخستین بار در سال ۱۹۸۲ ریچارد فاینمن فیزیکدان برجسته و برنده جایزه نوبل، پیشنهاد کرد که باید محاسبات را از دنیای دیجیتال وارد دنیای جدیدی به نام کوانتوم کرد که بسیار متفاوت از قبلی است و نه تنها مشکلات گذشته و محدودیتهای موجود را بر طرف میسازد، بلکه افقهای جدیدی را نیز به این مجموعه اضافه میکند.
این پیشنهاد تا اوایل دهه ۹۰ میلادی مورد توجه جدی قرار نگرفت تا بالاخره در ۱۹۹۴ پیتر شور از آزمایشگاه AT&T در آمریکا نخستین گام را برای محقق کردن این آرزو برداشت. به این ترتیب ارتباط نوینی بین نظریه اطلاعات و مکانیک کوانتومی شروع به شکلگیری کرد که امروز آن را محاسبات کوانتومی یا محاسبات نانومتری مینامیم.
هدف محاسبات کوانتومی یافتن روشهایی برای طراحی مجدد ادوات شناخته شده محاسبات (مانند گیتها و ترانزیستورها) به گونه ایست که بتوانند تحت اثرات کوانتومی، که در محدوده ابعاد نانومتری و کوچکتر بروز میکنند، کار کنند.
کامپیوترهای کنونی چگونه کار می کنند؟
کامپیوترهای کنونی میتوانند اعداد (۰ و ۱) را در حافظه خود ذخیره و روی آنها عملیات ساده ریاضی (پردازش) را انجام دهند. عمل ذخیرهسازی و پردازش توسط سوییچهایی به نام ترانزیستور انجام میگیرد. ترانزیستورها را میتوان نسخهای میکروسکوپی از سوییچهایی که روی دیوار جهت خاموش و روشن شدن چراغها استفاده میشود، در نظر بگیرید. در واقع یک ترانزیستور میتواند روشن و یا خاموش باشد. درست همانطور که نور میتواند روشن و یا خاموش شود. از ترانزیستور روشن میتوانیم برای ذخیره یک (۱) و از خاموش بودن آن برای ذخیره صفر (۰) استفاده کنیم.
بیت کوچکترین واحد پردازش اطلاعات کلاسیک است.
کامپیوترها با استفاده از مدارهای (دروازه – گیت) منطقی که از تعدادی ترانزیستور ساخته شدهاند، محاسبات و پردازش را بر روی بیتها انجام میدهند. یک گیت منطقی حالت یک بیت را سنجیده و در حافظهای موقت موسوم به رجیستری ذخیره میکند. سپس آنها را به حالت جدیدی تبدیل میکند. در واقع معادل عمل جمع، تفریق یا ضرب که ما در ذهن خود انجام میدهیم. یک الگوریتم در سطح پایین و به صورت فیزیکی، در واقع متشکل از چندین گیت منطقی است که کنار یکدیگر تشکیل یک مدار الکترونیکی را دادهاند. این مدار محاسبه یا عمل خاصی را انجام میدهد.
پایان قانون مور؟
در چند سال اخیر فرآیند ساخت ترانزیستورها و لیتوگرافیهای کمتر از ۱۰ نانومتر با مشکلاتی مواجه بوده و به کندی پیش میرود. در واقع به نظر میرسد که قانون مور به پایان عمر خود نزدیک است. جدا از راهکارهای کلاسیکی برای رفع مشکلات، میتوانیم رویکردهای فیزیک کوانتومی را بررسی و علم محاسبات را به دنیای کوانتومی وارد کنیم.
نظریه و فیزیک کوانتوم قوانین حاکم بر دنیای میکروسکوپی، اتمها و ذرات زیر اتمی را تشریح میکند. همانطور که احتمالاً میدانید، در مقیاسهای اتمی، قوانین فیزیک کلاسیک دیگر کارایی نداشته و نیاز است تا قوانین جدیدی را به کار بریم.
در کتابهای اپتیک، نور را موجودی دوگانه (موج و ذره) تعریف میکنند. در واقع نور بخشی از طیف امواج الکترومغناطیسی است که در عین حال یک ذره (فوتون) هم میتواند باشد! شاید بپرسید چگونه یک چیز واحد میتواند دو موجودیت داشته باشد؟! در دنیای کوانتوم نظیر چنین مطالبی امری عادی است. به جز بحث دوگانگی موج – ذره نور، یکی دیگر از مثالهای معروف دنیای فیزیک کوانتوم، گربه شرودینگر است. این گربه که در جعبهای قرار دارد، در هر لحظه هم میتواند زنده باشد و هم مرده!
حال فرض کنید که ما همچنان بتوانیم ابعاد ترانزیستورها را کوچک و کوچکتر کنیم تا قانون مور پابرجا بماند. این ترانزیستورهای کوچک دیگر مثل ترانزیستورهای قدیمی مطابق قوانین فیزیک کلاسیک کار نکرده و از قوانین پیچیدهتر فیزیک کوانتومی پیروی میکند.
لاندائور فیزیکدان شرکت IBM در دهه ۱۹۶۰ مطرح کرد که اطلاعات ماهیتی فیزیکی دارند که با توجه به قوانین فیزیکی میتوانند تغییر کنند.
کیوبیت واحد اصلی کامپیوترهای کوانتومی
ویژگیهای اصلی کامپیوترهای معمولی نظیر بیت، الگوریتم، گیتهای منطقی و … است و به طور مشابه در کامپیوترهای کوانتومی نیز وجود دارند. اصلیترین جزء یک کامپیوتر کوانتومی، در واقع واحد پردازش اطلاعات، بیت کوانتومی یا کیوبیت است. یک بیت کلاسیک در هر لحظه تنها میتواند یکی از دو مقدار ۰ و ۱ را داشته باشد؛ اما یک کیوبیت در هر لحظه هم میتواند ۰ باشد و هم ۱ یا حتی هر چیزی دیگری بین ۰ و ۱ !
فرض کنید که یک سکه را درون جعبهای انداخته و تکان میدهیم. به نظر شما وضعیت سکه به چه صورت است؟ احتمالاً پاسخ میدهید که حالت سکه یا شیر و یا خط است. اما از نظر مکانیک کوانتومی وضعیت سکه نه شیر است و نه خط، بلکه وضعیت آن به صورت برهمنهی از حالت شیر و خط است. در واقع تا قبل از باز کردن در جعبه نمیتوانیم وضعیت سکه را با یک بیت کلاسیکی معادل سازی کنیم.
وضعیت گربه داخل جعبه شرودینگر (زنده یا مرده!) هم می تواند مثالی از یک کیوبیت باشد. در اینجا نیز قبل از اندازهگیری نمیتوانیم به طور ۱۰۰٪ در مورد وضعیت گربه که آن را با یک کیوبیت معادلسازی کردیم، اظهار نظر کنیم
یک کیوبیت در حالت برهمنهی (Superposition) از حالتهای پایه ۰ و ۱ است.
برای مشخص شدن حالت کیوبیت باید آن را اندازهگیری کرد، در این صورت حالت برهمنهی ازبین رفته و کیوبیت با یک احتمالی در ۰ و یا ۱ ظاهر میشود.
در اصل در فیزیک کوانتوم یک الکترون در اتم می تواند در STATE های مختلفی باشد با درصد احتمال مشخص. همه ی این STATE ها را در نظر باید گرفت و وقتی به طور قطع می توانیم بگیم که الکترون در کدام ناحیه قرار دارد که آن را با ابزارهای موجود اندازه گیری کنیم.
آیا کامپیوترهای کوانتومی جایگزین کامپیوترهای عادی میشوند؟
شاید بتوان با قطعیت پاسخ خیر را به این سوال داد. از آنجایی که تعریف کیوبیتها شرایط خاصی (مثل خلأ بالا و یا دمای خیلی پایین) را طلب میکند، دور از انتظار است که در آینده، تلفن همراه و یا کامپیوتر خانگی شما حاوی تراشهای کوانتومی باشد.
کامپیوتر کوانتومی تنها حالت خاصی از کامپیوتر است که برای انجام و اجرای الگوریتمهایی خاص توسعه پیدا کرده است.
گوگل یکی از پیشگامان این حوزه اخیرأ موفق به ساخت کامپیوتر کوانتومی شده است که ۱۰۰ میلیون بار سریع تر از کامپوترهای فعلی است.
محققان این شرکت در مقالهای در نشریه علمی نیچر گفتن با دستیابی به فناوری جدید، انجام محاسبهای که با پیشرفتهترین کامپیوتر حال حاضر جهان موسوم به سامیت ۱۰ هزار سال طول میکشد در ۳ دقیقه و ۲۰ ثانیه امکانپذیر شدهاست.
چنین تکنولوژی زمانی بسیار اهمیت خواهد یافت که ما بخواهیم حجم بسیار عظیمی از داده را تحلیل و مسایل با سطح پیچیدگی بالا را به سرعت حل کنیم.