囲碁と素数

Igo and prime number

第三部

量子コンピュータ

はじめに、現在のコンピュータの世界を築いた基礎である半導体技術について述べた。第二部では、その上に立つソフトの世界(の中の一部)についてふれた。それらは1, 0の世界として成り立っていた。コンピュータの基礎である半導体トランジスタは1, 0という2値(ビット)を出力するスイッチ素子であるから。ともに発展してきたソフトウェア技術も1, 0の世界という制約のもとに築かれた。ソフトの記述言語が進化して、いかに以前よりはるかに使いやすくなったとしても、また、ソフトウェア環境が高度化されたとしても、その制約は変わらない。

しかし、量子コンピュータは、その制約そのものを取り払う、全く新しいコンピュータ技術である。1, 0ではない多値、1, 0の間のあいまい値を取り扱える。量子技術に基づくので、並列性が高く、計算量の飛躍的な増大が期待される。量子コンピュータは、前に述べた、現在の半導体技術の微細化を進めていく先にある、物理的限界とは、全く異なる、別種、異次元のブレークスルーである。量子力学に基づく量子ビットでは「重ね合わせ」の概念で複数の可能性を同時にとることができる。したがって、従来コンピュータでの論理演算に対して、量子論理演算が考えられる。これは、重ね合わされた情報のそれぞれに対して、重ね合わせを保ったまま同時に処理や計算が実行できる。例えば、3ビットと3量子ビットの計算の違いを見てみる。従来の3ビットは、8パターンの内の一つしか表現できない。3量子ビットでは8パターンを重ね合わせて計算することが可能。ただ、ここで量子論理演算の結果として取り出すことができるのは重ね合わせたパターンの内の一つだけである、ことに注意が必要である(2重スリットの実験や、量子力学の行列演算が背景にある)。そこで、量子論理演算での工夫では、000から111までの8パターンの波がどのような大きさの比(振幅)と振動のタイミングの差(位相)で重ね合わさっているかという情報を次のように用いる。波の反転、位相のシフトや干渉(量子干渉)を用いる。この工夫により、「たくさんの組み合わせの中から当たりを引く」技術が生れて来た。例えば、4ケタの暗証番号の解読では、量子コンピュータは全パターンを重ね合わせていっきに計算(正誤判定)し、その中間情報を保持したまま、正解の暗証番号にたどりつくための解法、試行(前記3つの操作)を有限回行う。この試行回数は従来コンピュータでの総当たりの回数よりはるかに少なくて済み、その分速い。

したがって、現時点での量子コンピュータのレベルは、従来よりも速く計算ができるいくつかのタイプの問題例が発見されている、ということになる。

従来コンピュータでの物理的限界に対するブレークスルーと、量子コンピュータという別々の技術のブレークスルーがそれ程違わない時間軸、未来の中で現実味を感じさせてきたことは、面白い。

量子コンピュータの詳細についての話しに入っていく前に、これまでの都合5回 (5記事)と今回までを、歴史的な順序を整理して振り返ることにする。

 

半導体産業とAI、ソフトウェアの歴史

半導体産業が成長していった1980年代、未だ、CMOS技術が出始めた時期ではある。先進地、米シリコンバレーでは1980年代に多くの半導体関連の新興企業が創業され、新しい技術を開拓して勃興した。それらは世界中に広がっていく。M&Aを繰り返し会社、形は変わってもその系譜は今にも続いている。メモリの製造を中心にして日本の半導体製造もじきにピークを迎えた。日米貿易摩擦も起こり、やがて1990年代中頃に現在のPCにつながるwindows搭載のPCも誕生してくる。それらがインターネットでつながるようになる。2000年に向かうにつれて、世界の半導体生産も韓国、台湾メーカーの台頭や、ファウンドリーとファブレス、業界のビジネス構造の再編で変わっていく。2000年代、ムーアの法則をひとつの指導原理のようにして、倍々と世界の半導体生産、供給量を増やしていく。PC、インターネット、通信、3G携帯と社会の中にソフトウェアが広がり、そのインフラ需要の伸びに応え、縁の下の力持ちとして半導体は増産される。ここでは、ムーアの法則が成り立つ、あるいは、それからのズレ(集積度の向上の低下傾向)などということよりも、半導体設計・製造とソフトウェア発展との間にある、好循環の関係の方が、より本質的であると考える。第2回その1の「アルゴリズムの誕生」として述べた、両者の間に働いたフィードバックループによる半導体設計・製造とソフトウェア双方のとどまることのない高性能化が、増大する需要と供給を支えて来た本質である。

2010年が近づく頃になると、PCの高性能化、計算容量が十分に増えてきて、より高度・高級(言語)な、ソフトウェアの開発を可能にする。第二部のAIの誕生で述べたように、1980年代からの半導体から20年、30年遅れてAIの実用化が実現していく。もちろん、AIもソフトウェアの中の一つのアルゴリズム、技術である。AI以外のソフトウェアも同様に発展して来たことは論を待たない。金融へのソフトウェアの進出も顕著であり(金融工学)、社会の構造を変え、金融ショックにも関係している。

2020年代の今、4G/5G、インターネット、クラウドをはじめとする社会のインフラの中にAIインフラが、近い将来、電力インフラと同じように求められるようになると想像されている。

視点を少し大きくすれば、グローバル化が一挙に進んだ歴史の中での今、グローバル化を技術的に支えたのはデジタル、IT、ソフトウェア産業の創出であり、また、そのインフラを支えた半導体産業である。グローバル化に結び付いて、知識・情報を求める何十億の人々の創出は、そのプラットフォームを提供する新しい産業に対して一人当たりでは”わずかのコスト”を投じ、しかし世界全体では計り知れない需要、マーケットを生み出した。これまでに何度か触れた”無料”のサービス、仕組み、アイデアの根本には、このような社会の変化がある。広告収入をベースとする、グローバルな買い手と売り手を結びつけるプラットフォームの役割。マーケットが拡大して、現代社会はさらに、ソフトウェア化する。

 

 私自身、半導体業界で35年を過ごしてきた。AIのアルゴリズムの根底にある考え方に、ある意味でよく似ている手法が、コンパクト・モデルという呼び方でフルチップのリソグラフィ設計で使われてきた。(実際には、コンパクト・モデルの開発の効率化にAI手法を近年導入している、のが実際ではあるが。)マスクを実物のレチクルとして設計するときに――これがとファブレスファウンドリーを分ける境界であることは以前に述べた、――露光機の光学のリソグラフィ・シミュレーションを行う。マスクのパターンが実際にシリコンウェハー上にどのように転写、焼き付けられるかを近接効果補正などを行いシミュレーションする。この時に、シリコンウェハー上に塗布されているレジストの露光、ベーク(bake、レジスト中の熱工程・化学反応)――つまり、光学像から潜像を得る――、現像までの物理的な過程までを含めてシミュレーションし、最終的なレジストの3次元的な現像後加工形状を予測する。これを光学系とともに物理の連立偏微分方程式として解くrigorous(厳密)手法では、半導体チップの中の一部分の領域しかシミュレーションできない。チップ全体を厳密手法ではないが、モデル化する手法がコンパクト・モデルである。これは、実測で得た現像後加工形状のデータにモデルを合わせこむ手法であり、OPC(Optical Proximity Correction)技術として(何)十年にわたり発展してきて、nmの精度の要求に応えるものである。AIのアルゴリズムのような洗練された手法ではないものの、実用的な精度を向上させてきた。私は、EUV実用化まじかの時期に、主にrigorous手法で、かつEUV特有のラフネス効果を含めた統計的な手法でシミュレーションする手法開発に3年ほど従事した。

会社をリタイアして、ドイツ(光学技術の本場)から日本に戻り幸いなことに、AI技術を含めてopen sourceのソフトウェア利用環境が十分に整っていることである。PC自体が発展したのが私が会社に入ってからずいぶん経った後であり、ソフトウェアに関する学校教育を受けたことはなく、データサイエンスという言葉も聞かずにいた。会社支給のPC(Dell)と私用のドイツでも使っていたSonyのPC(4 GBメモリ)の間では会社のVPNファイアウォールの壁があり苦労したが、帰国後1年少してDellのPC(i7, 8 GBメモリ)を買った。第二部の表であげたようなソフトウェアを自己流で勉強して、open sourceの環境(のみを使い)のおかげで容易に体験することができた。Dockerをインストール後は、メモリを16GBまで増設した。DellSonyのPCをUSBリンクのソフトでつなぎ快適に動く。以前会社でLinuxのコンピュータfarmを使っていた時と内容は全く異なるが、open source環境を利用して不自由がない。容易にAIを動かすことができるようになっていることを体験した(下図)。

Raspberry Pi IPythonの写真は「ニューラルネットワーク自作入門」Tariq Rashid, 新納 浩幸 監訳、マイナビ2017年から引用した] 増設した 8 GBメモリ(DDR4)は約4300円、それとほぼ同じような値段でRaspberry Piが買える。

ソフトウェアを使う人は、通常ディスプレー画面上しか意識していない。上図ではあえて、それらの動いている下側のハードウェアを意識した。

工場で量産される半導体チップが、設計・開発の段階でIP権利でがんじがらめになっている、一方、ソフトウェアが世界に流通する中では、ライセンス・コストを払うもの有り、open source有りなどと利用環境は整っている。(その裏側では、悪意のあるマルウェアはじめとする不法ソフトウェアが存在し、監視ソフトが仕込まれる危険にも備えなければならない。といった、負の側面もある。)

 

PCが生れて本格的には、たかだか20年。

AIが私達の生活に見え始めて来たのは、せいぜい5年。

クリックすることによる人々の生活は、ますます、深化・進化していく。

さらに、量子のハードウェア技術に基づいて、量子のアルゴリズムを実現していくという、物理とソフトウェアの両方からの困難なアプローチが待っている。量子力学が生まれたのは1950年以前に遡る。現在の1, 0コンピュータの基礎になっている半導体技術については、既に説明した。次々回から、量子コンピュータを実現しようとしているハードウェア技術と量子コンピュータアルゴリズムについて述べていく。