囲碁と素数

Igo and prime number

第三部、量子コンピュータのその3

次にU_{f}の最も簡単な場合について、物理的なハードウェアの部分も含めて、量子転送について説明したい。つまり、 U_{f}=1 恒等変換の場合である。これは入力 |ψ_V>が出力 |φ_B>にそのまま伝わるが、入力装置と出力装置の間で距離が離れていれば、ある距離間の転送が行われたと考えることができる。量子的に転送するとは、位置と運動量の不確定性に関する量子力学の初期からの論争にも関連する。量子転送、量子テレポーテーションに(実験的に)成功するということは、「アインシュタインポドルスキー・ローゼンのパラドックス」が破られること(量子エンタングルメントの存在)の実験的証明に等しい。そこで、量子エンタングルメント(量子もつれ)、ベルの不等式(の破れ)について説明しながら、この問題を扱っていきたい。ちなみに、ベルの不等式(の破れ)を実験的に証明した3人の先駆的な研究者に2022年のノーベル物理学賞が贈られたことは記憶に新しい。

 

量子テレポーテーションの実験を説明するには、相当の紙数が必要なのでここでは、古澤明の「量子テレポーテーション」から概念的な図4-1, 4-2 (前のドイチュの場合と比べて

制御位相シフトのようなものがなく、代わりにベル測定と変位操作がある。) のみを示す。

アリスとボブはこの実験に関わってくるが、アリスとボブはそれぞれ量子を1つずつ持ち、その2つの量子は量子エンタングルした状態になっている。後から出てくる1/2スピンの場合の量子状態の方がスピン回転方向の矢印を用いた表記で分かり易いので、それによる説明を用いる。図2-27のザイリンガーの1/2スピンの場合での実験では、エンタングルした光子対(AとB、V1とV2)の2組、↕↔ - ↔↕を生成した後、アリス側では、波長板を介してハーフビームスプリッターで合わせてベル測定を行う。ベル測定とは、元々まったく関係なかった2つの量子をエンタングルさせ、エンタングルした状態のうちのどれかを明らかにする測定(図2-26)のこと。光子検出器1と2が同時に光子を検出した時、

量子テレポーテーションにおけるアリスとボブの役割は図2-27に示すものに対応する。[「量子テレポーテーション」古澤明、講談社ブルーバックス2009年から引用]

↕↔ - ↔↕であることが分かり、ベル測定が完了する。また、検出情報をボブに伝えれば、ボブ側にある量子Bは既に、a↕ + b↔となっているから、それで量子テレポーテーション完了する。

同様の実験装置が次のベルの不等式の実験でも使われる。

そもそも、U_{f}が恒等変換であれば、古典コンピュータとしては、単にデータのcopyをすることに過ぎない。古典コンピュータにおける真理値表の役割が、量子コンピュータではユニタリ行列Uになる、というように。ここでも両者の違いは大きい。

量子コンピュータのハードウェアとして、光子を使う場合の例をとり、実験的に量子テレポーテーションがどのように実現されるかを示す。光の波束を用いる場合。変位操作は、ボブがアリス側でのベル測定の結果を聞き出力の波束Bの状態の位置と運動量を変化させ、入力波束の状態を再現する。

ベル測定は、図3-12の図ではホモダイン測定、位相敏感測定となっている。

 

本来、ベルの不等式(の破れ)を先に説明するベキだが、物理的な話が深くなってしまうので、説明の都合上、順序を変えた。

ベルの不等式の実験の実際。ここでは、Nobel Prizeのホームページ

The Nobel Prize in Physics 2022 - Popular science background

から引用して、2022年のノーベル物理学賞の概説、実験の概要を紹介する。

 

ベルの不等式(の破れ)の実験     |S| ≥ 2, Sは2量子の相関係数から求めた観測量

ジョン・クラウザーが考案したCHSH不等式と、それに基づいて行った実験で、初めて隠れた変数理論が否定された。

 

量子もつれを起こしている光子のペアは、光の波に関するある性質 (偏光) がもつれているので、片方の光の波の性質を観測すれば、もう一方も必ず決まる。

この波の性質は、特定の角度の性質を持つ光のみを通し、他は通さないフィルター (偏光フィルター) を通して行う。光が通ったかどうかで、その性質を持っているかどうかがわかるからだ。

今回の実験は光子のペアで行うので、光子同士を反対方向に照射し、それぞれの方向に設置された、角度の異なるフィルターに通した時の結果が実験結果となる。

フィルターの角度は両方とも違うので、光子のペアは片方だけフィルターを通る場合もあれば、両方ともフィルターを通る場合、あるいは両方とも遮られる場合のどれかになるはずだ。

そして、両方ともフィルターを通る確率は、両方のフィルターの角度の違いによって単純に決まる。重要なのは結果で、これが隠れた変数理論と関わってくる。

この実験はベルの不等式と同じCHSH不等式を検証するもので、CHSH不等式を満たす実験結果ならば隠れた変数理論は正しく、一方で満たさない場合は隠れた変数理論は否定される。

CHSH不等式の考案から3年後、クラウザーはCHSH不等式は成り立たず、隠れた "変数" は存在しないという結果を発表した。

さらに、

|S| = 2.697 ± 0.015 アラン・アスペ

ベルの不等式が破れていて、量子エンタングルメントが存在していることを証明した。

(別の角度から、これらに相当する、現代的な実験(?)について、また、後から説明する。)

 

前の図3-12の古澤の実験は、この量子もつれザイリンガーらの直交した偏光の光子ペアではなく、スクイーズド光という光の波束の場合に用いて、量子テレポーテーションの本格的な実験に成功した点で新しい。9量子ビット、誤り訂正と続く(古澤の実験 2010年時点)。

 

次に、量子コンピュータ超電導回路上で実行できる、現在の開発状況について見ていく。

IBMIBM Quantum Experienceと名付けたクラウド・サービスを公開している。超電導方式の中でも、トランズモン(transmon)と呼ばれる、2007年イェール大学によって開発された技術に基づく、量子ビットを用いている。入力されたコマンドは(古典コンピュータ用の)ビット列に変換され、マイクロ波のパルスに変換されて、超電導状態を制御するよう配線されたトランズモン本体へ送られ、0, 1の状態が重ね合わさった量子ビットに変換される。量子ゲートにより、後続のパルスで制御され、量子並列性を利用した計算が実行される。

超電導回路の基本原理は、超電導体でできたリングの途中にジョセフソン接合をはさんだ構造をしたSQUID(超電導量子干渉計)と呼ばれるものである。超電導状態で電気抵抗がゼロになりSQUIDには円形電流が持続的に流れる。超電導状態では電流に関わる電子があたかも一つにまとまったかのような流れをつくり波動的な振る舞いになる。重ね合わせ状態が実現できる。

量子ビット数が、数十、数百から(IBM 2022年時点)、数千量子ビットを目指していく段階。

しかし、量子ビットの安定性が問題で、コヒーレンス時間と呼ばれるものが初期のナノ秒から今はミリ秒になった。他に、イオン トラップ、フォトン、人工または実際の原子など、他の量子系の実現方式がある。アーキテクチャ量子ビットの系によっては、量子ビット絶対零度に近い温度に保つ必要があるものもあります。

 現状開発が最も進んでいる超伝導量子コンピュータを動作させるためには、絶対温度零度(-273℃)近くの極低温環境を実現する特殊な冷凍機「希釈冷凍機」が必要になります。超伝導量子ビットの大きさは数ミリ角です。もし100万量子ビットを二次元に集積化したとすると会議室ぐらいのサイズになってしまいます。

この量子ビット数、増大競争とスーパーコンピュータの能力を超える壁、冷凍機の壁。超伝導以外のハードウェア実現方式との実用化競争。これが、ハードウェアとしての量子コンピュータの現状になる。いってみれば、昔のトランジスタの小規模集積のレベルといった現状になる。

次に、アーキテクチャ、ソフトウェアでの工夫として、2023年にIBMは、ソフトウェア面で、分散処理のための機構を導入する。量子と古典のハイブリッド型コンテナ型実行環境である「Qiskit Runtime」を使った量子アプリケーション開発体験を進展させ、量子ソフトウェアスタックにサーバーレスのアプローチを導入する。これは、量子コンピュータと古典コンピュータの間で、問題を効率的に分散処理させる重要なステップだとしている(開発ロードマップの図参照)。

現状の集積度では量子エラー訂正機能を搭載することができません。そのため、量子ビットの集積度と品質を向上させる技術に加えて量子エラー訂正技術の確立が肝となります。

 

(前に述べた、現代的な実験(?)についての説明。)

IBMなどの量子コンピュータを用いて、現在では実験室ではなくても、前述のベルの不等式(の破れ)の実験をコンピュータ上で行うことができる。

以下のYouTubeが上がっている。

ベルの不等式を量子コンピュータで破る!【ノーベル物理学賞解説2022】 - YouTube

より詳細は、

https://utokyo-icepp.github.io/qc-workbook/nonlocal_correlations.html

CHSH不等式の破れを調べるために、2つの量子ビットの相関関数を計算する。それぞれ異なる角度のRyゲートをかけています。

 




第三部、量子コンピュータのその2

前々回に続いて、

量子とは

重ね合わせ

ビット、量子ビット

ドイチュのアルゴリズム

 量子3ビット

量子転送

 ベルの不等式の破れ

グローバー、ショアのアルゴリズム

等々についての説明が必要になるが、遠回りになるようでも、これらを既に説明してきたアルゴリズムの誕生から、ソフトウェア、AIへと続いたこれまでのコンピュータ世界と区別して、明確に対比させることを目指して話を始めたい。

 

これまで話が専門的になることから半導体の物理にはふれずに来たが、半導体LSIの動作の基礎には半導体の物理がある。半導体の物理とは、半導体を流れる電流、半導体キャリアによる電流が、他の金属や絶縁体などの材料とどう異なるかを説明するもので、これも量子力学の初期の成果による理論である。しかし、そのような半導体を流れる電流をトランジスタという半導体素子でスイッチさせる制御方式が生まれ、確立されるとそこから先は、量子力学の理論の必要性はほとんど無くなる。電流のスイッチのオン/オフの0, 1のビットの世界である。しかし、量子力学的には、0, 1の(単純にいえば) 重ね合わせの状態が本来的に存在する。量子力学自体も初期のアインシュタインの頃から発展して、ベルの不等式の理論、実験的な検証(ベルの不等式の破れ)へとつながり70年余りが経過している。そんな中で量子ビットを用いた、従来の古典コンピュータと全く異なる量子コンピュータが生まれて来た。量子ビットトランジスタ素子に対応する量子コンピュータの素子、量子ゲートはどんなものかが問題になる。

量子ビットの現在、最も実用化研究が進んでいる方式は、半導体超電導状態にして電荷を量子状態にして蓄える方式である。この量子ビットマイクロ波を送り、状態を変化させるのが量子回路。アダマールゲートと呼ばれるのは、その中で重ね合わせの状態を作りだせる。

|0>が入力すると、|+>=(|0>+|1>)/\sqrt{2}\ が出力、

|1>が入力すると、|->=(|0> - |1>)/\sqrt{2}\ が出力される。

具体的に量子コンピュータの素子、量子ゲートがどのように実現されているかは、後回しにして、ここでは超電導状態やスピン、光の量子光学による制御で実現されている(当然ながら、量子力学に基づいている)ことだけ紹介して、ドイチュのアルゴリズムという具体例で説明を進めたい。

 

ドイチュのアルゴリズム―均等と一定 (あるいは、等分と均一)―

ここでの説明は、量子3ビットを用いた場合の例を用いる。そもそも、なぜ、量子コンピュータを開発するかというと、このビット数を3ビットから4, 5, 6ビット…と増やしていった時に、重ね合わせの状態を利用したある種の並列性から従来の古典コンピュータによる処理速度を量子コンピュータが追い抜ける可能性があるからである。

そこで、ドイチュ、正確にはドイチュ-ジョサの問題は、[「量子コンピュータ」竹内 繁樹、講談社ブルーバックス 2005年から引用]

上図の?位置のブラックボックスに入力された3ビットの数が均等か一定かを判定することである。均等とは上図の例の[00101101]のように0, 1の数が等しい場合、一定は文字通り0か1のみが8連続した場合である。2進関数的に表すと、変数を簡単化して2ビットに減らし考えると、変数は4通り、関数は均等か一定かのどちらかしかないので、8通りの組み合わせ

f(00)=f(01)=f(10)=f(11)=0 か f(00)=f(01)=f(10)=f(11)=1 の一定、2通り

f(00)=f(01)=0 で f(10)=f(11)=1 の均等

f(00)=f(01)=1 で f(10)=f(11)=0 の均等

f(00)=f(10)=0 で f(01)=f(11)=1 の均等

f(00)=f(01)=1 で f(01)=f(11)=0 の均等

f(00)=f(11)=0 で f(01)=f(10)=1 の均等

f(00)=f(11)=1 で f(01)=f(10)=0 の均等、6通り

合計8通りしかない、問題設定になっている。

ドイチュ-ジョサの実現したアルゴリズムでは、これを図5-4の観測のところで、もしすべてが状態|0>であれば、その結果ブラックボックスに入力された3ビットの数が一定であることが言える。ビット数を元の3ビットに戻して話を進める。このビット数nが2, 3, 4と増えるに従い、従来のコンピュータでは2nのような処理ステップ数を用いて均等か一定かを判定することができるが、ドイチュ-ジョサのアルゴリズムでは処理ステップ数の増加はnに比例している。

図5-4でステップAのHの記号はアダマール(Hadamard)ゲートをさす。

3つのアドレスビットは|0>と|1>の重ね合わせ状態へと変化する。一方、|b>は|0>のまま。4つの量子ビットの状態を具体的に書くと、

 (|0,0,0,0> + |0,0,1,0> + |0,1,0,0> + |0,1,1,0> + |1,0,0,0> + |1,0,1,0> + |1,1,0,0> + |1,1,1,0>)/2\sqrt{2}\         (1)

次に、ステップBのブラックボックス回路では、上の例えば|0,0,0>が入力されると、量子ビット|b>はブラックボックスのビット列の最初の値に応じて出力される。その値が0なら|b>は|0>のまま。1なら|b>は|0>から反転して|1>に変わる。

 今、ブラックボックス回路に蓄えられているビット列が均等の[10110100]だとしよう。上に述べたことから(1)式の|b>の変化を反映させると

(|0,0,0,1> + |0,0,1,0> + |0,1,0,1> + |0,1,1,1> + |1,0,0,0> + |1,0,1,1> + |1,1,0,0>+ |1,1,1,0>)/2\sqrt{2}\         (2)

(2)式のそれぞれの項の最終ビット|b>は、蓄えられていた[10110100]そのものになっていることが分かる。一度の操作で(ステップBの段階で) ビット列の情報を読み出せている訳である。この状態から特徴を抽出するための操作が次のステップCである。

レジスタビット|b>に制御位相シフトと呼ばれるゲート操作を行う。これは、対象とするビットが|1>の時だけ、その位相をプラスからマイナスへ変化させる。この操作の結果は、

(-|0,0,0,1> + |0,0,1,0> - |0,1,0,1> - |0,1,1,1> + |1,0,0,0> - |1,0,1,1> + |1,1,0,0> + |1,1,1,0>)/2\sqrt{2}\         (3)

次のステップDでは、Bと同じブラックボックス回路を通るので、|b>の状態はもとの|0>に戻ることになり、

(-|0,0,0,0> + |0,0,1,0> - |0,1,0,0> - |0,1,1,0> + |1,0,0,0> - |1,0,1,0> + |1,1,0,0> + |1,1,1,0>)/2\sqrt{2}\         (4)

となる。元の|0>に戻ったアドレスビット|b>を分けて書くと

(-|0,0,0> + |0,0,1> - |0,1,0> - |0,1,1> + |1,0,0> - |1,0,1> + |1,1,0> + |1,1,1,0>)|0>/2\sqrt{2}\         (5)

次のステップEでは、これら3つのアドレスビットに再度、アダマールゲートを作用させる。アダマールゲートは|0>に作用させると(|0>+|1>)/\sqrt{2}\

|1>に作用させると(|0> - |1>)/\sqrt{2}\ と変化する。(5)式のそれぞれに作用させる。

|0,0,0> については、左側のビットが(|0>+|1>)/\sqrt{2}\となり、次に真ん中のビットに作用させて、

{|0> (|0>+|1>) |0> + |1> (|0>+|1>) |0>}/2

=(|0,0,0> + |0,1,0> + |1,0,0> + |1,1,0>)/2

となる。最後に右側のビットに作用させると

(|0,0,0> + |0,0,1> + |0,1,0> + |0,1,1> + |1,0,0> + |1,0,1> + |1,1,0> + |1,1,1>)/\sqrt{2}\

となる。

|0,0,1> については、左側のビットに作用させて(|0,0,1>+|1,0,1>)/\sqrt{2}\となり、次に真ん中のビットに作用させて、

(|0,0,1>+|0,1,1>+|1,0,1>+|1,1,1>)/2 となる。

最後に右側のビットに作用させると

(|0,0,0>-|0,0,1>+|0,1,0>-|0,1,1>+|1,0,0>-|1,0,1>+|1,1,0>-|1,1,1>)/2\sqrt{2}\となる。

同様に、残り6項の状態に作用させて、全てを足し合わせると、プラスマイナスで打ち消しあう状態があり、(5)式の8つの状態に対する作用後の結果が

(|0,0,1> + |0,1,1> - |1,0,0> + |1,1,0>)/2  (6)

となる。

さて、この3つのアドレスビットの結果(6)を観測すると、もし、全てが状態|0>であれば、一定。もし、全て|0>以外の結果が得られれば均等と断定できる。今の結果(6)の重ね合わせ状態は明らかに全て|0>以外であるから、このブラックボックスに入力された3ビットの数が均等であることが言える。確かに、今の場合[10110100]の均等のビット列が入力されたので正しい結果である。

 別の一定のビット列[00000000]や[11111111]を入力させた場合には、今度は、全てが状態|0>である観測結果になるハズである。

例えば、ビット列[00000000]が入力されると、前式の

ステップBの(2)式では、どの項においてもレジスタビット|b>は|0>になっている。この状態に、ステップCで制御位相シフトを作用させたとしても、レジスタビット|b>は|0>のため、位相シフトは生じず、状態は変化しない。つまり|a_{0}>、|a_{1}>、|a_{2}>がすべて|0>と|1>の重ね合わせの(|0>+|1>)/\sqrt{2}\状態となり、|b>は|0>という状態となる。

次のステップEのアダマール変換は(|0>+|1>)/\sqrt{2}\に作用させると

|0>に変化させる。したがって、3つの量子ビット|a_{2},a_{1},a_{0}>、にアダマールゲートが作用されると、それぞれの量子ビットは|0>状態に戻る。つまり|0,0,0>。前式(6)に相当。この3つのアドレスビットの結果(6)を観測すると、全て|0>の結果であるから、一定と判定される。

 

このような量子ブラックボックス回路を演算回路U_{f}と書き、上で述べたことと等価なことだが、2進関数的に表すfの問題関数を実現する演算回路U_{f}が、

量子力学風に書くと入・出力のブラ、ケットを用いて

                                    |φ> = U_{f} |ψ>

と表記されることになる。

 

日本の半導体産業

かつて5割近くあった

(1980年代)世界の中での日本の半導体生産額が今では5%と1/10にまで落ち込んだことは、日本にとって大変な問題である。

原因として挙げられるのは、1)メモリ生産が中心で需要、価格変動の激しいメモリへの投資が負担になった 2) 1980年代以降の日米貿易摩擦円高の環境で日本国内での生産から海外へ技術移転して移っていった 3)新技術、新世代への投資が巨大になるにつれバブル崩壊後、デフレ下の日本では集中した投資が難しくなった。しかし、これらだけでは1/10にまで落ち込んだことの説明にはならないので、他にも大きな原因・理由があるように考える。

一つは、第二部のソフトウェアのところで述べた、デジタル化、IT化する世界の発展が半導体生産と一連の流れの中で理解できていなかった。メモリ生産が中心で「コメ作り農業論」のような、マユツバの工場量産現場での発想が中心にあり、将来の量産され世界マーケットに広がった半導体チップのデジタル化、IT化した使われの方への考慮、発想、注力、投資を怠った。

二つ目は、日本の半導体産業だけの問題とは言えない点。日本の産業、政策にかかわることである。それは、日本の半導体生産を需要して、メモリだけでない、デジタル化、IT化した新しい需要・マーケットを通信産業はじめとする新しい分野を創り出す努力に欠けた、あるいは失敗したことである。産業への新規参入者がなく、従来通りの既得権の企業・産業と産業政策が継続された。量産され世界マーケットに広がった半導体チップを新たに需要して、マーケットに新規参入し、メモリ以外の新しいcpuやロジック・チップの生産を促す新しい企業、技術の立ち上げがなかった。

グローバル化に結び付いて、知識・情報を求める何十億の人々の欲望、需要とそのためのプラットフォームになる新しいデジタル、IT、ソフトウェア産業の創出・到来という、大転換に対応する先見性を持たなかった。

・ゲーム産業が数少ないこの分野での日本の成功例かもしれないが、Apple, Google, Nvidia, ARMはじめとする米国、海外の企業が半導体チップを需要して、新しいチップ技術を開発・発注するのと、大きな差がある。

・大学、学会に発明家・ベンチャー的な革新研究や技術の大家、リーダーが現れなかった。

・NTT、東京電力はじめとする従来からの既得権、インフラ企業は保守的で、新規参入がなく、その周りの多くの企業群でも通信、インターネット、放送などをはじめとした新しい事業が育った例を寡聞にして私は見知らない。

・政府の政策も、デジタル化、IT化について世界に大きく遅れた。新型コロナ禍での保健所Faxによる大混乱問題で露呈された。

これら例に象徴される日本の産業界、政策全般からの需要、支援の無しが日本の半導体産業のジリ貧に大きく影響した。シェア1/10までの落ち込みは、日本の半導体生産が、1/2以下に撤退・縮小などで減り、世界の生産量が4倍には増えたことを意味する。

 大変な問題ではあるが、私個人がいくら憂いてもどうしようもないので、微力な私の出来ることとして、半導体チップの歴史を記録することをデジタル化、IT化する中でAIや量子コンピュータに触りながら行うつもりである。

なお、大変な問題の克服の可能性として、

  • 第二部のソフトウェアのところで述べた、デジタル化、IT化する世界が既に大きな現実のものとなった今、AIの技術そのものはアルゴリズムの技術と考えられるので、それの直接の開発にかかわらなかったとしてもそれの利用、応用、発展には本質的な問題はない、と考える。むしろ日本の現在持つモノの高度生産技術をAIと組み合わせて、より高度に信頼性あるシステムで安全なAI技術として発展させて行けばよい。
  • その中でAI技術や、デジタル化、IT化する世界の中で半導体チップのもつ本質的な役割に再度気付いて、新規参入技術・事業と結びつく発想が20年の遅れをとったとしてもまた始まることを期待したい。半導体チップの製造装置、材料だけに甘んじることはできない。後は、気付いて、やるだけの問題ではないか。既に実績と記録・記憶があり(そのための微力な役割を本文が担うことを願って)、技術者、高度生産技術と産業があれば、やるだけの問題である。
  • これまで1980年から2021年くらいの40年間の視点で書いてきたが、もちろんこの技術的な流れは、もっと長期の中でも考えられるベキである。AI技術が特化された適用範囲からさらに汎用化されていく将来を含めて、デジタル化、IT化する世界の流れはさらに速まり、強まる。その中で半導体チップのもつ本質的な役割を忘れずに、新規参入技術・事業と組み合わせる長い展望をもつことが大事である。今から40年先、その先の高度産業技術国家として築いてきた日本のイメージを、さらに発展、創出させる。

を挙げておきたい。

 

上記のことと無関係ではない、次のことも取り上げる必要がある。

半導体の製造が経済安保の問題、中国、ロシアをはじめとする専制国家対民主主義陣営の国家群との間の経済デカップリングの観点からも最重要視されるようになって来た。これは世界的な問題であるが、台湾、中国、韓国に隣接する日本にとっては、地政学的に言っても、深刻な問題である。特に、台湾に集中する世界的なファウンドリー、TSMCに集中する製造技術、先端LSIの製造能力が、世界全体の不安定要因と考えられている。この点については、回をあらためて取り上げてみたい。

 また、2022年には、経済デカップリングの進展か、日本においても先端のLSI半導体を復活させようとする動きが始動して、変化の兆しが見られる。

これについても、さらに具体的に書けることが近い将来やってくることを期待したい。

 

第三部

量子コンピュータ

はじめに、現在のコンピュータの世界を築いた基礎である半導体技術について述べた。第二部では、その上に立つソフトの世界(の中の一部)についてふれた。それらは1, 0の世界として成り立っていた。コンピュータの基礎である半導体トランジスタは1, 0という2値(ビット)を出力するスイッチ素子であるから。ともに発展してきたソフトウェア技術も1, 0の世界という制約のもとに築かれた。ソフトの記述言語が進化して、いかに以前よりはるかに使いやすくなったとしても、また、ソフトウェア環境が高度化されたとしても、その制約は変わらない。

しかし、量子コンピュータは、その制約そのものを取り払う、全く新しいコンピュータ技術である。1, 0ではない多値、1, 0の間のあいまい値を取り扱える。量子技術に基づくので、並列性が高く、計算量の飛躍的な増大が期待される。量子コンピュータは、前に述べた、現在の半導体技術の微細化を進めていく先にある、物理的限界とは、全く異なる、別種、異次元のブレークスルーである。量子力学に基づく量子ビットでは「重ね合わせ」の概念で複数の可能性を同時にとることができる。したがって、従来コンピュータでの論理演算に対して、量子論理演算が考えられる。これは、重ね合わされた情報のそれぞれに対して、重ね合わせを保ったまま同時に処理や計算が実行できる。例えば、3ビットと3量子ビットの計算の違いを見てみる。従来の3ビットは、8パターンの内の一つしか表現できない。3量子ビットでは8パターンを重ね合わせて計算することが可能。ただ、ここで量子論理演算の結果として取り出すことができるのは重ね合わせたパターンの内の一つだけである、ことに注意が必要である(2重スリットの実験や、量子力学の行列演算が背景にある)。そこで、量子論理演算での工夫では、000から111までの8パターンの波がどのような大きさの比(振幅)と振動のタイミングの差(位相)で重ね合わさっているかという情報を次のように用いる。波の反転、位相のシフトや干渉(量子干渉)を用いる。この工夫により、「たくさんの組み合わせの中から当たりを引く」技術が生れて来た。例えば、4ケタの暗証番号の解読では、量子コンピュータは全パターンを重ね合わせていっきに計算(正誤判定)し、その中間情報を保持したまま、正解の暗証番号にたどりつくための解法、試行(前記3つの操作)を有限回行う。この試行回数は従来コンピュータでの総当たりの回数よりはるかに少なくて済み、その分速い。

したがって、現時点での量子コンピュータのレベルは、従来よりも速く計算ができるいくつかのタイプの問題例が発見されている、ということになる。

従来コンピュータでの物理的限界に対するブレークスルーと、量子コンピュータという別々の技術のブレークスルーがそれ程違わない時間軸、未来の中で現実味を感じさせてきたことは、面白い。

量子コンピュータの詳細についての話しに入っていく前に、これまでの都合5回 (5記事)と今回までを、歴史的な順序を整理して振り返ることにする。

 

半導体産業とAI、ソフトウェアの歴史

半導体産業が成長していった1980年代、未だ、CMOS技術が出始めた時期ではある。先進地、米シリコンバレーでは1980年代に多くの半導体関連の新興企業が創業され、新しい技術を開拓して勃興した。それらは世界中に広がっていく。M&Aを繰り返し会社、形は変わってもその系譜は今にも続いている。メモリの製造を中心にして日本の半導体製造もじきにピークを迎えた。日米貿易摩擦も起こり、やがて1990年代中頃に現在のPCにつながるwindows搭載のPCも誕生してくる。それらがインターネットでつながるようになる。2000年に向かうにつれて、世界の半導体生産も韓国、台湾メーカーの台頭や、ファウンドリーとファブレス、業界のビジネス構造の再編で変わっていく。2000年代、ムーアの法則をひとつの指導原理のようにして、倍々と世界の半導体生産、供給量を増やしていく。PC、インターネット、通信、3G携帯と社会の中にソフトウェアが広がり、そのインフラ需要の伸びに応え、縁の下の力持ちとして半導体は増産される。ここでは、ムーアの法則が成り立つ、あるいは、それからのズレ(集積度の向上の低下傾向)などということよりも、半導体設計・製造とソフトウェア発展との間にある、好循環の関係の方が、より本質的であると考える。第2回その1の「アルゴリズムの誕生」として述べた、両者の間に働いたフィードバックループによる半導体設計・製造とソフトウェア双方のとどまることのない高性能化が、増大する需要と供給を支えて来た本質である。

2010年が近づく頃になると、PCの高性能化、計算容量が十分に増えてきて、より高度・高級(言語)な、ソフトウェアの開発を可能にする。第二部のAIの誕生で述べたように、1980年代からの半導体から20年、30年遅れてAIの実用化が実現していく。もちろん、AIもソフトウェアの中の一つのアルゴリズム、技術である。AI以外のソフトウェアも同様に発展して来たことは論を待たない。金融へのソフトウェアの進出も顕著であり(金融工学)、社会の構造を変え、金融ショックにも関係している。

2020年代の今、4G/5G、インターネット、クラウドをはじめとする社会のインフラの中にAIインフラが、近い将来、電力インフラと同じように求められるようになると想像されている。

視点を少し大きくすれば、グローバル化が一挙に進んだ歴史の中での今、グローバル化を技術的に支えたのはデジタル、IT、ソフトウェア産業の創出であり、また、そのインフラを支えた半導体産業である。グローバル化に結び付いて、知識・情報を求める何十億の人々の創出は、そのプラットフォームを提供する新しい産業に対して一人当たりでは”わずかのコスト”を投じ、しかし世界全体では計り知れない需要、マーケットを生み出した。これまでに何度か触れた”無料”のサービス、仕組み、アイデアの根本には、このような社会の変化がある。広告収入をベースとする、グローバルな買い手と売り手を結びつけるプラットフォームの役割。マーケットが拡大して、現代社会はさらに、ソフトウェア化する。

 

 私自身、半導体業界で35年を過ごしてきた。AIのアルゴリズムの根底にある考え方に、ある意味でよく似ている手法が、コンパクト・モデルという呼び方でフルチップのリソグラフィ設計で使われてきた。(実際には、コンパクト・モデルの開発の効率化にAI手法を近年導入している、のが実際ではあるが。)マスクを実物のレチクルとして設計するときに――これがとファブレスファウンドリーを分ける境界であることは以前に述べた、――露光機の光学のリソグラフィ・シミュレーションを行う。マスクのパターンが実際にシリコンウェハー上にどのように転写、焼き付けられるかを近接効果補正などを行いシミュレーションする。この時に、シリコンウェハー上に塗布されているレジストの露光、ベーク(bake、レジスト中の熱工程・化学反応)――つまり、光学像から潜像を得る――、現像までの物理的な過程までを含めてシミュレーションし、最終的なレジストの3次元的な現像後加工形状を予測する。これを光学系とともに物理の連立偏微分方程式として解くrigorous(厳密)手法では、半導体チップの中の一部分の領域しかシミュレーションできない。チップ全体を厳密手法ではないが、モデル化する手法がコンパクト・モデルである。これは、実測で得た現像後加工形状のデータにモデルを合わせこむ手法であり、OPC(Optical Proximity Correction)技術として(何)十年にわたり発展してきて、nmの精度の要求に応えるものである。AIのアルゴリズムのような洗練された手法ではないものの、実用的な精度を向上させてきた。私は、EUV実用化まじかの時期に、主にrigorous手法で、かつEUV特有のラフネス効果を含めた統計的な手法でシミュレーションする手法開発に3年ほど従事した。

会社をリタイアして、ドイツ(光学技術の本場)から日本に戻り幸いなことに、AI技術を含めてopen sourceのソフトウェア利用環境が十分に整っていることである。PC自体が発展したのが私が会社に入ってからずいぶん経った後であり、ソフトウェアに関する学校教育を受けたことはなく、データサイエンスという言葉も聞かずにいた。会社支給のPC(Dell)と私用のドイツでも使っていたSonyのPC(4 GBメモリ)の間では会社のVPNファイアウォールの壁があり苦労したが、帰国後1年少してDellのPC(i7, 8 GBメモリ)を買った。第二部の表であげたようなソフトウェアを自己流で勉強して、open sourceの環境(のみを使い)のおかげで容易に体験することができた。Dockerをインストール後は、メモリを16GBまで増設した。DellSonyのPCをUSBリンクのソフトでつなぎ快適に動く。以前会社でLinuxのコンピュータfarmを使っていた時と内容は全く異なるが、open source環境を利用して不自由がない。容易にAIを動かすことができるようになっていることを体験した(下図)。

Raspberry Pi IPythonの写真は「ニューラルネットワーク自作入門」Tariq Rashid, 新納 浩幸 監訳、マイナビ2017年から引用した] 増設した 8 GBメモリ(DDR4)は約4300円、それとほぼ同じような値段でRaspberry Piが買える。

ソフトウェアを使う人は、通常ディスプレー画面上しか意識していない。上図ではあえて、それらの動いている下側のハードウェアを意識した。

工場で量産される半導体チップが、設計・開発の段階でIP権利でがんじがらめになっている、一方、ソフトウェアが世界に流通する中では、ライセンス・コストを払うもの有り、open source有りなどと利用環境は整っている。(その裏側では、悪意のあるマルウェアはじめとする不法ソフトウェアが存在し、監視ソフトが仕込まれる危険にも備えなければならない。といった、負の側面もある。)

 

PCが生れて本格的には、たかだか20年。

AIが私達の生活に見え始めて来たのは、せいぜい5年。

クリックすることによる人々の生活は、ますます、深化・進化していく。

さらに、量子のハードウェア技術に基づいて、量子のアルゴリズムを実現していくという、物理とソフトウェアの両方からの困難なアプローチが待っている。量子力学が生まれたのは1950年以前に遡る。現在の1, 0コンピュータの基礎になっている半導体技術については、既に説明した。次々回から、量子コンピュータを実現しようとしているハードウェア技術と量子コンピュータアルゴリズムについて述べていく。

 

第二部

 

ソフトウェアの中から注目されている3分野を抜き出した。これらの発展を支えた半導体技術との関係を示すために、左下の部分を加えた。第2回その1で述べた好循環の関係は、半導体設計を介して、これらソフトウェアとの間でもフィードバックのループを形成していると考えるからである。

これらの3分野は膨大過ぎる。左下一分野だけで私は35年を過ごして来た。今では一人のフリーランスとして3分野の本を読み、webで勉強し、フリーソフト, open sourceで楽しんでいる。私の趣味の囲碁AIのソフトもかなりの時間を占めている一つである。それぞれの分野の良書、web教材は多数あるので私の付加することはない。ただ、それぞれの分野の関係性を示してみたかった。例えば、スーパーコンピュータの活躍する分野として気象シミュレータがある。昔のIBMの大型計算機上で開発された時代から始まり、現在の日常生活において我々は恩恵を受けている。その数値計算の結果を天気予報として解釈する部分においてAI技術が最も活躍している。そういう特性、分担の関係がある。

この3分野はこれまで説明してきたLSI半導体技術の上で築かれたソフトウェアの中で現在、最も注目されているものである。

私は専門でないので、最近知ったがGoogleの提供するクラウド上のColaboratoryというサービスがある。ブラウザからpythonはじめとする環境が用意されていてGPUへのアクセスなど無料のサービスがある。ソフト自体はopen sourceなので無料で動く。このような環境は従来、個別の企業が自社のソフトや、ソフトのライセンス(7ページ)を買いIT環境を整えて投資して初めて用意される閉鎖環境だった。GAFAMicrosoftはじめが提供する無料の環境は、インターネット社会の今を象徴している。

AIは、電力のように全ての人に供給されるようになるべきであると、「人工知能のアーキテクトたち」(Martin Ford, ‘Architects of Intelligence’ 2018、オライリー・ジャパン2020年)の中で何人かが述べている(下表)。AIはLSI半導体技術から20年遅れて来て、2000年以降PCが本格的に使えるようになった後に育った若い世代とともに発展してきた。表の生年から、2018年のTuring賞を受賞したHinton達3人の中心人物を含め1950年代より前の生まれは全部で5人だけで60, 70年代が中心となっている。

 

 

ソフトウェア半導体LSI

ソフトウェアにしても、半導体LSIにしても、それが有用・有益であることは認めるとしても、使う側からしては、ブラックボックスとして使うことになるのが通常である。ソフトウェアはクリックして、あるいは、最小限の聞かれたことに答えを入力して使うものと、考えられている。ましてや、半導体LSIは機器の中にあって、はじめから中身の分からないブラックボックスとして使われている。このことをもう少し掘り下げて考えてみる。

ソフトウェアは、元々人間が機械に命令するための手段である。そうすると、今我々は、産業革命以来の、主にエネルギーを利用して機械に仕事をさせることに加えて、機械に手順を命令することができるようになった(下図参照)。そして、ソフトウェアが動作する実体としての半導体LSIチップを通してこれが可能になった、と言える。

 

 

情報インフラが世界中をつなぐ、現在の本質に近いところの根底にこれがある。

AIをはじめとしたソフトウェアによって、近い将来、我々の生活がさらに変わり始める。汎用AIの実現時期についても、前ページの専門家達の間でも2030年から2100年代の最後(2200年)までと人に依り大きな幅がある。

仕事をする機械が、人間の頭脳の代替になるような汎用AIの頭脳を持つことになるので、AIの専門家達といえども、AIソフトウェアの実用性評価、汎用AIの汎用性の定義と汎用性を獲得する学習方法の開発、他のソフトウェアとの関係、産業技術の中へのAIの普及速度、AI機械の安全性の確保と成熟性など、従来からの未来予測と同様の不確定さがある。

 

仮に、汎用AIが実現されてAIに指示された機械が人間に替わり社会を動かすようになった時代・社会生活を考える。そこから、逆に時を遡ると、現代(つまり、上図)においては、ソフトウェアは人間がプログラムする占有物である時代ということになる。その前は、人間がPCのような単体の機械を動かすためにプログラムしていた時代になる(DOSとかBASICのような時代)。それをさらに、遡るとPCのようなプログラムする装置すら存在しないが、電卓のような計算したり、単純命令を実行する装置の時代になる。それをさらに、遡ろうとすると、電卓の部品のようなICやLSIと呼ばれるものの時代になる。この時、プログラムは部品の中に内蔵されていた。これは1980頃に我々が実際に経験していた時代である。その時、半導体LSIチップを設計・製造する側では電卓よりも高度に電子化された手法が採用されていて、この小文のはじめで「アルゴリズムの誕生」と呼んだ方法で、LSIチップが設計され、その製造がおこなわれていた。

歴史を逆に遡ってくると、ここを起点にしてその後の50年、(100年)の発展が行われた。好循環の関係、フィードバックループによる高性能化が、その間たゆまなく実行されて、今日に至っているからである。

 

第2回 その3

物理限界

さらなる微細化を進めていく先には、物理的限界が見えてくる。その第一は、素子のソース・ドレイン活性領域を構成している不純物イオン注入された不純物イオンの数が、素子の微細化の進展で減少するために生じる効果である。数が減ると不純物イオン数のゆらぎの効果で安定したソース・ドレインの電気的特性が得られなくなり、素子の欠陥の発生につながる。

これとは別の現象ではあるが、既にEUV露光に関しては、パターンの縮小にともないx線フォトン(光子)の数が減少、限られているため、さらには、レジスト中の有機物の数が限られゆらぐ効果で、転写されるパターンにラフネスという構造ゆらぎ―直線のパターンが直線から不規則にゆらぐなど―が現れて、欠陥数の増大が起きている。統計的な解析による欠陥制御の必要。

今後は、不純物イオン数のゆらぎをはじめとした限界も見すえて、全く新規の素子、材料の開発、ブレークスルーが必要になってくる。通信分野やパワー半導体においては既に実用化されているが、シリコン半導体から別の化合物半導体材料への変更もある。nano wireはじめとした提案はされているが、未だ、これからの技術開発である。

 

半導体LSIが将来の世界を左右するキーであることは間違いない。このことは、単に技術面、経済・投資の面を超えて、以降述べる社会構造、地政学上、さらには、政治、安全保障にまで及んでいる。

AnnaLee SaxenianのThe new Argonauts, Regional advantage in a global economy HARVARD UNIVERSITY PRESS, 2006​年。「最新・経済地理学」日経BP社2008年。

シリコンバレーの分散的産業システムがグローバルに広がっていることを示したこの本では、地域経済を外国からの居住者に解放したことから始まり、移住外国人技術者(図2-1)ハイテク移民が母国とのつながりの中で地域横断的なノウハウや技能の循環をつくり制度を改革してアントレプレナーシップも形成、蓄積していったと説く。シリコンバレーのシステムに学ぶ、国際的コミュニティをつくりだす、の各章に続き台湾、中国、インドと米国、先進国からこれら新興の国に生産が移っていった理由を追求している。日本では半導体各社の現場までもが半導体の”米作り農業論”のような幻想に踊り、技術の全体像を見ず、経営側は世界のオープンシステムの潮流に背を向けた1980, 1990年代から、韓国(Saxenianの本では、先進国側に分類されている)を経由、台湾へと技術・資本、技術者が渡って行った。

他方少し遅れて、MicrosoftGAFAと呼ばれるグローバルなITプラットフォーマーの巨大企業が誕生して国家の枠組み、従来の政治の世界を越えた影響も与えはじめている。それと並行して、中国への投資も進行した。一方で、中国は万里の長城と呼ばれる世界から隔離されたインターネット網を築き、民主主義・自由主義陣営の国々とは異なる政策、行動をとっている。

中国も今では最大のLSI消費地域である。SMICを筆頭にして半導体LSI会社ができている。しかし、技術的には、未だ、他の地域の後発にとどまっている。

中国をめぐり2019, 2020年から貿易摩擦、知的財産侵害問題が広がり、米中対立が政治、安全保障面において激化している。その一環として、中国にはEUV露光装置の供給が禁止され(2020年)、中国において最先端のLSIチップを設計・開発、製造することは規制されている。例えば、あるEDA会社では2019年中国にある部門を別会社として切り離し、email addressも分離するなど対応をとっている。

 

5G/6G 開発。これにも政治、安全保障が大きく絡んできている。

ファーウェイに対する制裁 2019年

 

現在、

2021年 世界

半導体装置産業 market                  7兆円(712億$)

半導体材料 market                         6兆円(553億$)

半導体産業market                         53兆円(500 x10億$)

EDA 設計支援                                1兆円

 

ソフトウェア market                                   50兆円以上(4073億$) 2013年 米ガートナー

ソフトウェア業界、IT業界など調査、統計の対象が難しいので目安として示す

価格

EDA設計ツール               1000万円, 1億円以上

Microsoft製品群               ~10万円

ウィルス対策                    ~1万円

フリーソフト(open source)             0円 (無料)

              R, python, Linux, jupyter notebook, Anaconda, GitHub, Docker, Ruby他多数

 

まとめ

半導体LSIというものの概説とそれが生れ、産業、および社会に及ぼした影響について述べた。特に、現代社会の最重要部品になった仕組みの根底を探った。

第二部では以上の半導体LSIの歴史の上に立ち、その中での”ソフトウェア側”の上位の階層にあると位置づけられる、「ソフトウェア」本体について言及する。これらもほぼ同時期に、ほぼ並行して発展して来たと言える。ソフトウェアの中でも確率、統計、AIに関するものを取り上げる。半導体LSIが生れ、新しい産業・社会が生れ、それが今後、さらに発展していく方向を探るのに重要な分野と考えるからである。

今後、微細化、高集積化をさらに継続していけるか、あるいは、物理限界を打ち破るブレークスルーが生れるか。いずれにしても、第二部に登場する分野と半導体LSIチップ、および、その後継の両輪が未来を担う重要なものになる。

 

添付として、視覚的にわかりやすいように経済産業省作成の図を転載する。

AnnaLee Saxenianの本から。ケイレツ、チェボル(巨大財閥)と対照的なハイテク移民出身が築いた台湾、中国、インドなどのハイテク。

 

第2回 その2

その1 (アルゴリズムの誕生)に続いて、簡単にLSIチップのまとめを行った後、LSIの歴史について書く。

LSIチップの種類と用途                                           メーカー

cpu Intel, AMD, ARM                                                Intel, AMD

特定用途用ロジック Qualcomm, NVIDIA                TSMC

メモリ DRAM (R. Dennard 1967),                            Samsung, SK, Micron, キオクシア

Flash (舛岡 富士雄 1986) 

マイコン、アナログ 車載用、家電用など              TI, Renesas, NXP

イメージセンサー スマートフォンなど                  Sony

LSIではないが、パワー半導体 重電            Infineon, Onsemi, 三菱電機, 東芝, ST

装置メーカー

露光装置、装置(エッチング、デポジション、塗布、検査)メーカー、マスク・メーカー

材料メーカー

シリコンウェハー、レジスト、反射防止膜、多層膜、洗浄、ガス

 

歴史

1. 1980年頃

1980年代までEDAツールの開発

シリコンバレー半導体新興企業の勃興

Cadence, Synopsys (Aart de Geus), Mentor (この頃起業して、現在の3大EDA会社につながる系譜)

 

日米貿易摩擦 日米半導体交渉

PC、 Windows 96 (1996)が実用化されて、PCの時代、普及がはじまる。やがて、Linux OSも地歩を築く。

液晶ディスプレイ TVの画面モニターも、PC他新しいLSIチップに基づく製品の普及とともに置き換わっていった。poly TFT(thin film transistor)を用いた液晶ディスプレイが、半導体LSI産業と類似した形で急速に発展した。技術的にも、ガラス基板の上にpoly TFTを液晶用の露光装置と半導体に類似した工程で作成し、それがカラー・フィルタを信号制御するという、デジタル・アナログ技術である。LSIの微細化とは逆に、大ガラス基板化・大(画素)画面化が進んだ。半導体LSI産業からの技術者の流入も多かった。

 

2. 2000年頃

日本半導体メーカー再編、撤退、縮小。韓国、台湾メーカーの台頭。

ファウンドリーとファブレス、業界のビジネス構造の再編。ファブレス(AppleQualcommNVIDIAなど)製造工場をもたないIP (Intellectual Property)、設計専門の会社とファウンドリーという工場を持ち、製造専業で設計済みのものを受託生産する会社(TSMC、UMC、Global Foundriesなど)の両方が台頭してきた。

 

波長限界 リソグラフィで用いるレーザー光はi線(波長 365nm)、KrFエキシマレーザー(波長 248nm)、ArF​エキシマレーザー(波長193nm)と素子の微細化が進むにつれて短波長化して来た。 しかし、その波長よりも転写・加工する素子の寸法の方が大幅に短くなり露光装置は限界を迎えていた。液浸immersionという手法によりレジスト(屈折率1.6)の表面を従来の空気(屈折率1.0)から水(屈折率1.44)に変えることにより、ウェハーへの光入射角を小さくできることから 焦点深度(パターンが形成できる焦点範囲)を大きくしてプロセス・ウィンドウを拡大し歩留まりを確保できる。また、露光装置のレンズNAを大口径化NA=1.35も実現した。

数値リソグラフィ 上記のような光学起因の困難はマスクとリソグラフィに数値計算技術を駆使した高度化を要求した。マスクについてはOPC(Optical Proximity Correction)処理の数値リソグラフィによる高度化、露光技術についても照明形状のシミュレーション最適化はじめ注力された。それでも微細化への対応が難しくなると従来1枚のマスクで処理していた工程を2枚(複数枚)のマスクを使い(MPT, multi patterningと呼ぶ)、工程数の増大と引き換えにして実現することも多くなった。

従来から各メーカーを悩ませてきたのが好不況の波、シリコンサイクルと投資のタイミングの難しさであった。それに加えて、このような技術的難しさがLSI製造全体の中でのマスクの設計・製造、露光装置、リソグラフィに関する部分の工程のコストを大きく増大させた。これらが業界構造の変化と投資負担増に耐えられない企業の続出につながった。電子データとしてのマスクを実体のマスク(レチクル)として製造する部分を境界にして、業界の構造が世界的に大きく変わったといえる。これは、次項の新技術が世界をつなげ、世界を変えて行くことと並行して起きている。

 

インターネット PCが普及して業務の中での主役になるにつれて、インターネットに接続されていることが前提になった。

通信 3G携帯までは、電話の代わりが主な役割あった。4G、スマートフォンになってからは、PCと同様にインターネットを含めた常時通信ネットワークにつなげるためのツールとして普及、グローバルなインフラになった。宇宙・静止衛星を利用した通信。クラウドの活用。IT(Information Technology)社会。

 

3. 2015年頃

半導体LSIの微細化、高集積化をさらに継続していくためには、ArF immersionの露光波長にまつわる限界は避けられなくなって来た。そこで、さらに短い波長のEUV 実用化へ向けた努力の最終段階を迎えた。露光装置が従来のものから、真空を必要とするx線領域のEUV露光装置に置き換わる。露光装置は従来のNikon(日本)、Canon(日本)、ASML(オランダ)の3社の体制から、EUV露光装置ではASML 1社のみが実用化に成功した。1台150億円という超高価な装置を投資できるLSIメーカーも数が限られる。

 

スーパーコンピュータ ニュースに登場する京、富岳をはじめとしたスーパーコンピュータは市販のPC、コンピュータとは異なり、専用のcpuに基づいて開発されたものである。この競争トレンドも技術的な指標になっている。

素子の立体化

素子の立体化は、メモリにおいては、集積度を上げるために素子の水平平面の中での微細化から、メモリの主にキャリア蓄積容量部での高さ方向に立体化したものである。これとは別に、素子FET部分の立体化はゲート長の縮小、微細化が平面の中では難しくなってきた時に、ゲート構造を高さ方向に立てて立体化、ゲート電極が立体的にFETをとり巻くようなFin(ひれ、羽根)構造にしたFinFETで実現した。両者ともに不可欠になった技術である。