出典:フリー百科事典「ウィキペディア」より引用
特異点 その3
-超人間的知性の創造
人類を超える知性を創造する方法は、人間の脳の知能増幅と人工知能の2つに分類される。
人間の知能増進の方法として考えられる手法は様々である。バイオテクノロジー、向知性薬(向精神薬の一種)、AIアシスタント、脳とコンピュータを直結するインターフェイス、精神転送などがそれである。劇的に寿命を延ばす技術、人体冷凍保存、分子レベルのナノテクノロジーなどがあれば、より進歩した未来の知能増進医療を受けることができる。さらに増進した知能から得られる技術として不死や人体改造を受けられる可能性も出てくる。
特異点到達に積極的な組織は、その方法として人工知能を選ぶことが最も一般的である。例えば、Singularity Institute(特異点研究所)は、2005年に出版した"Why Artificial Intelligence?" の中で、その選択理由を明らかにしている。
ジョージ・ダイソンは、自著 Darwin Among the Machines の中で、十分に複雑なコンピュータネットワークが群知能を作り出すかもしれず、将来の改良された計算資源によってAI研究者が知性を持つのに十分な大きさのニューラルネットワークを作成することを可能にするかもしれないという考えを示した。精神転送は人工知能を作る別の手段として提案されているもので、新たな知性をプログラミングによって創造するのではなく、既存の人間の知性をデジタル化してコピーすることを意味する。
-カーツワイルの収穫加速の法則
レイ・カーツワイルは、歴史研究の結果、技術的進歩が指数関数的成長パターンにしたがっていると結論付け、特異点が迫っているという説の根拠としている。これを「収穫加速の法則」(The Law of Accelerating Returns)と呼ぶ。彼は集積回路が指数関数的に細密化してきているというムーアの法則を一般化し、集積回路が生まれる遥か以前の技術も同じ法則にしたがっているとした。
彼によれば、ある技術が限界に近づくと、新たな技術が代替するように生まれてくる。パラダイムシフトがますます一般化し、「技術革新が加速されて重大なものとなり、人類の歴史に断裂を引き起こす」と予測している(カーツワイル、2001年)。カーツワイルは特異点が21世紀末までに起きると確信しており、その時期を2045年としている(カーツワイル、2005年)。彼が予想しているのは特異点に向けた緩やかな変化であり、ヴィンジらが想定する自己改造する超知性による急激な変化とは異なる。この違いを「ソフトな離陸」(soft takeoff)と「ハードな離陸」(hard takeoff)という用語で表すこともある。
カーツワイルがこの法則を提案する以前、多くの社会学者と人類学者は社会文化の発展を論じる社会理論を構築してきた。ルイス・H・モーガン、レスリー・ホワイト、ゲルハルト・レンスキらは文明の発展の原動力は技術の進歩であるとしている。モーガンのいう社会的発展の三段階は技術的なマイルストーンによって分けられている。ホワイトは特定の発明ではなく、エネルギー制御方法(ホワイトが文化の最重要機能と呼ぶもの)によって文化の度合いを測った。彼のモデルはカルダシェフの文明階梯の考え方を生むこととなった。レンスキはもっと現代的な手法を採用し、社会の保有する情報量を進歩の度合いとした。
1970年代末以降、アルビン・トフラー(未来の衝撃の著者)、ダニエル・ベル、およびジョン・ネイスビッツは、脱工業化社会に関する理論からアプローチしているが、その考え方は特異点近傍や特異点以後の社会の考え方に類似している。彼らは工業化社会の時代が終わりつつあり、サービスと情報が工業と製品に取って代わると考えた。
逆に、Theodore Modis と Jonathan Huebner は技術革新の加速が止まっただけではなく、現在減速していると主張した。John Smart は彼らの結論を批判している。また、カーツワイルが理論構築のために過去の出来事を恣意的に選別したという批判もある。
-特異点の妥当性と安全性
考えられうる超人間的知性の中には、人類の生存や繁栄と共存できない目的をもつものもあるかもしれない。例えば、知性の発達とともに人間にはない感覚、感情、感性が生まれる可能性がある。AI研究者フーゴ・デ・ガリスは、AIが人類を排除しようとし、人類はそれを止めるだけの力を持たないかもしれないと言う。他によく言われる危険性は、分子ナノテクノロジーや遺伝子工学に関するものである。これらの脅威は特異点支持者と批判者の両方にとって重要な問題である。ビル・ジョイはWIREDで、その問題をテーマとして Why the future does't need us(何故未来は我々を必要としないのか)を書いた(2000年)。オックスフォード大学の哲学者ニック・ボストロムは人類の生存に対する特異点の脅威についての論文 Existential Risks(存在のリスク)をまとめた(2002年)。
多くの特異点論者はナノテクノロジーが人間性に対する最も大きな危険のひとつであると考えている。このため、彼らは人工知能をナノテクノロジーよりも先行させるべきだとする。Foresight Institute などは分子ナノテクノロジーを擁護し、ナノテクノロジーは特異点以前に安全で制御可能となるし、有益な特異点をもたらすのに役立つと主張している。
友好的人工知能の支持者は、特異点が潜在的に極めて危険であることを認め、人間に対して好意的なAIを設計することでそのリスクを排除しようと考えている。アイザック・アシモフのロボット工学三原則は、人工知能搭載ロボットが人間を傷つけることを抑止しようという意図によるものである。ただし、アシモフの小説では、この法則の抜け穴を扱うことが多い。
宇宙の特異点