前提として人工知能には明確な定義が存在しない。
なのでここでは
と定義したいと思う。
すなわち、人間と同じ賢さを持った機械ということだ。私たちはAIをこう解釈し、いろんな角度からAIを解説したいと思う。
定義があいまいなのには三つの理由がある。一つめはそもそも‘知能‘という概念自体があいまいであるからだ。意識、心、感情などをどこまで含めるか。人間についても知能の概念が明確でないため、それを人工的に作った人工知能も明確な定義ができないのだ。二つめは、AIは多様な分野に及ぶためどの分野から見るかによって定義が変わってきてしまう。例えば、コンピューターシステムの分野だとタスクを効率良くこなす能力だととらえられるが、心理学だと人間の思想プロセスを解析するためのモデルだととらえられる。三つめは企業の「AI搭載!」などといった売り文句が世間に広まって、あいまいになっていってしまったということだ。
| 出典 | 定義 |
|---|---|
| 広辞苑 | 推論・判断などの知的な機能を備えたコンピューターシステム |
| 百科事典 | 科学技術 > コンピュータ … 人工知能(AI)。一般的に知的存在に関連している課題をデジタルコンピュータやコンピュータ制御のロボットが実行する能力 |
| 人工知能学会記事 | 『人工知能とは何か』という問いに対する答えは,単純ではない.人工知能の専門家の間でも,大きな議論があり,それだけで1 冊の本となってしまうほど,見解の異なるものである.そのような中で,共通する部分を引き出して,一言でまとめると,『人間と同じ知的作業をする機械を工学的に実現する技術』といえるだろう |
| 深層学習と人工知能 | 人工知能は,人間の知能の仕組みを構成論的に解き明かそうとする学問分野である |
| 学術論文「人工知能社会のあるべき姿を求めて」 | 人工知能をはじめとする情報技術はあくまでツール |
AIのアイデアは、第二次世界大戦後のコンピュータ科学の発展と並行して生まれました。
1943年:マカロックとピッツ 神経生理学者ウォレン・マカロックと論理学者ウォルター・ピッツが、人間の神経細胞(ニューロン)の働きをモデル化した論文を発表しました。これが人工ニューラルネットワークの理論的基礎となりました。
1950年:アラン・チューリング 数学者アラン・チューリングが、論文「計算する機械と知能」を発表し、機械が知能を持っているかを判断するチューリングテストを提唱しました。
1956年:ダートマス会議 ジョン・マッカーシー、マービン・ミンスキー、クロード・シャノン、アレン・ニューウェル、ハーバート・サイモンらが参加した会議で、「人工知能(Artificial Intelligence)」という言葉が初めて使われました。この会議は、AIを独立した学術分野として確立する画期的な出来事でした。
1958年:LISPの誕生 ジョン・マッカーシーが、AI研究のためのプログラミング言語LISPを開発しました。
1960年代:エキスパートシステムと探索アルゴリズム AI研究の中心は、特定の専門家の知識をコンピュータに組み込む「エキスパートシステム」でした。また、チェスや数学の問題を解くために、効率的な探索アルゴリズム(例:幅優先探索、深さ優先探索)の研究も進みました。
1966年:ELIZA ジョセフ・ワイゼンバウムが、患者と会話する心理療法士を模倣した自然言語処理プログラムELIZAを開発しました。
第一次AIブームの終わり この時期のAIは、単純なルールに基づいたもので、人間の持つ膨大な常識や知識をコンピュータにすべて入力することが困難であることが明らかになりました。これを知識獲得のボトルネックと呼びます。
コンピュータの処理能力向上と、日本の「第五世代コンピュータプロジェクト」などの国家プロジェクトの推進によって、再びAIに注目が集まりました。
1980年代:第五世代コンピュータプロジェクト 日本が開始したこのプロジェクトは、AIを搭載した次世代コンピュータの開発を目指しました。これが世界中のAI研究を再び活性化させました。
1982年:エキスパートシステムの商業化 デジタル・イクイップメント・コーポレーション(DEC)が、コンピュータの構成を自動で決定するエキスパートシステム「R1(XCON)」を導入し、大きな商業的成功を収めました。
1986年:バックプロパゲーションの再評価 ジェフリー・ヒントン、デイビッド・ルメルハート、ロナルド・ウィリアムズらが、多層ニューラルネットワークを効率的に学習させるバックプロパゲーション(誤差逆伝播法)を再発見しました。これにより、ニューラルネットワーク研究がコネクショニズムとして再び脚光を浴びました
第二次AIブームの終わり エキスパートシステムは特定の分野では有用でしたが、柔軟性に欠け、専門家が持つ暗黙知(言葉で表現しにくい知識)を扱うことができませんでした。また、ニューラルネットワークも当時のコンピュータの計算能力では、層を深くすることが難しく、大きな成果を上げるには至りませんでした。
インターネットの普及によるビッグデータの登場と、GPU(グラフィックボード)などの計算処理能力の飛躍的な向上が、AIの歴史を大きく動かしました。
2006年:ディープラーニングの提唱 ジェフリー・ヒントンが、多層ニューラルネットワークを事前学習させる手法を発表し、ディープラーニングという言葉が広く知られるようになりました。
2012年:AlexNetの登場 ジェフリー・ヒントンが指導したアレックス・クリジェフスキーが開発したAlexNetが、大規模な画像認識コンテストILSVRCで圧倒的な性能で優勝しました。これにより、画像認識分野に革命が起き、ディープラーニングがAI研究の主流となりました。
2016年:AlphaGoの勝利 Google DeepMindが開発した囲碁AI「AlphaGo」が、世界トップ棋士であるイ・セドルに勝利。人間が直感や経験を頼りにする分野でも、AIが人間を超えることを示しました。
2017年:Transformerモデルの誕生 Googleが発表した論文「Attention Is All You Need」で、自然言語処理に革新をもたらしたTransformerモデルが提唱されました。これは、現在の大規模言語モデル(LLM)の基礎となっています。
2022年〜現在:生成AIの普及 OpenAIのChatGPTが一般に公開され、対話型AIが誰でも手軽に使えるようになりました。その後、画像生成AIのMidjourneyやStable Diffusion、動画生成AIなどが次々と登場し、AIが創造的な分野にも進出しました。