シンギュラリティ漫談

(技術的)シンギュラリティとは次の2つの仮定の元に導かれる帰結のことである。


仮定1・人間の脳の能力には限界がある
仮定2・人類はコンピュータの能力を際限なく拡張することができる


能力は何らかの方法で数値化可能である(例えば、与えられたタスクの処理速度)。
したがって、人間の限界の能力は、ある定数で表現できる。
一方、コンピュータの能力は時間に対する増加関数である。
したがって、コンピュータの能力は、ある時点で人間の能力を超える。
色々な流儀があるが、この記事ではこの現象をシンギュラリティと呼ぶことにする。


この論理自体は極めてシンプルで盤石であると思う。
したがって、シンギュラリティに対する懐疑論は、
すべて仮定1,2の否定として表現できる。


仮定1はほぼ疑う余地はない。
有限サイズの脳という期間が、無限の能力を持っているとは考えにくい。
霊的な何かとつながっている、という思想はあるが、科学的根拠はない。


仮定2に対する意見は様々だろう。
半導体プロセスルール微細化が物理的に不可能になることを根拠に、
ハードウェア成長の限界を指摘し、それに伴う成長のストップを予測する人もいる。
また、人類がコンピュータの能力を十分に発達させる前に、
文明が滅びる可能性も否定はできない。


楽天的に2つの仮定を認めた上で、シンギュラリティの到来時期を予測する人もいる。
最も楽天的な意見では、2020年台前半が予想されている。
この予測は人によってまちまちである。

今後の見どころ

ハードウェア

2020年前後に現行のプロセスルール微細化の限界が訪れるが、それを
プロセッサ開発会社がどう乗り越えるか。

ソフトウェア

ディープラーニング(DL)の成果は素晴らしく、ひとつのイノベーションである。
しかし、DLによって大脳の学習規則がすべて分かったとするのは早計であると思う。
あくまでも視覚野の機能を部分的に模倣できたにすぎないと考えるべき。
DLの技術にこだわりすぎず、サイエンスとしてやっていくべき。

神経科学

理論が実験に追いつけなくなりつつある。
ビッグデータを手軽に扱う枠組みが必要。
理論家はもっと増えるべきである。