人工知能の研究:AI の盛り上がりは過剰か?
人工知能(AI)ほど至るところで話題になり、盛り上がっているテクノロジーはおそらくありません。OpenAI が 2022 年 11 月に ChatGPT をリリースして AI を大衆にもたらしたとき、世界は一変しました。AI スタートアップ企業は多額の資金を集め始め、Microsoft や Apple などの巨大テクノロジー企業は自社製品に AI を導入し、実際のツールとして AI の認知度が高まりました。
現在、生成 AI、大規模言語モデル、機械学習、ニューラルネットワークといった用語は、プロフェッショナルサービスから家電製品まで、ほぼすべての商業分野で使用されています。さらには、 AI 搭載のトースターまで登場しました。
しかし、 現時点で AI とは一体何なのでしょうか?製品を売るためのバスワードとして使用されているだけなのでしょうか?それとも、実際に高度なインテリジェンスを実行しているでしょうか?このブログ記事では、このような疑問について掘り下げ、AI の欠点を探り、AI ウォッシングを特定するためのヒントを共有し、AI がサイバーセキュリティなどの業界にどのような変革をもたらしているのかを探ります。
AI の盛り上がりを紐解く:AI は何ができるのか?
人工知能は、通常人間に関連するタスクを実行できるシステムを構築することをテーマとしたコンピューターサイエンスの分野です。そのようなシステムは、意思決定、複雑な問題の解決、創造的な思考などのタスクを実行するように構築することができます。AI システムは、高度なアルゴリズムと(大量の)データを使用してこれらの離れ業を達成します。
しかし、この一般的な定義は核心に触れていません。何が AI で、何が AI ではないのかをより正しく理解するためには、まず AI の 2 つの広義のカテゴリーを定義することが重要となります。つまり、推論 AI と生成 AI です。
推論 AI
推論 AI は、テキスト、画像、音声、動画などのコンテンツから情報を推測することに重点を置いたテクノロジーです。
たとえば、猫の写真を提示すると、このテクノロジーはコンテキストのヒントを使用して被写体を正しく識別できます。
このタイプの AI は情報に基づいて推論することはできますが、独自のコンテンツを生成することはできません。
生成 AI
生成 AI(GenAI)は、指示に基づいて 新しい コンテンツ(テキスト、画像、音声、動画)を生成できるテクノロジーです。
たとえば、「猫の絵を描いて」という指示が与えられると、生成 AI モデルは猫の画像を生成します。
推論 AI と生成 AI は表裏一体のものと考えることができますが、一般的には後者の方がより高度であると考えられています。生成 AI の開発には、機械学習とニューラル・ネットワーク・トレーニングが組み合わせて使用されます。
コンポーネントの把握:AI の仕組み
ニューラルネットワーク は脳の仕組みからインスピレーションを得ていますが、よりシンプルかつ実用的な方法で機能します。これは、情報を処理する何層もの人工ニューロン、すなわち ノードで構成されるマシンです。各ニューロンは数値(入力)を受け取り、単純な計算を実行してから、結果(出力)を送信します。
ネットワークは、「重み」と呼ばれる一連の数値の調整を行うことによって学習します。この重みによって、ネットワークのふるまいが決まります。監視ありの学習中に、ネットワークにデータと望ましい出力が供給され、それを使用して重みが設定されます。ネットワークはこれを繰り返すたびにミスから学習し、重みを調整して、望ましい出力に到達する可能性を向上させます。
ディープラーニング は機械学習の一種であり、より強力なグラフィックス処理ユニット(GPU)と、より高度なトレーニングアルゴリズムの登場に伴って生まれました。ニューロンの層が増えたことで、はるかに高度なことを行えるようになっています。重要な注意事項が 1 つあります。それは、「ディープ」とはニューラルネットワークに含まれるレイヤーの数を指し、物理的な深さであり、知的な深さではないということです。
ディープ・ラーニング・アルゴリズムの一般的な例として、ChatGPT などの 大規模言語モデル (LLM)が挙げられます。これは、人間の言語のテキストを理解したり生成したりするようにトレーニングされたものです。LLM はテキストシーケンスを入力として受け取り、シーケンス内の次の単語の確率を出力します。これは、チャットボットが質問やコメントに対する関連性のある応答をするのに役立つ機能です。
LLM は大量のテキストを使用したトレーニングを受けており、そのテキストは通常、Web から収集されています。ニューラルネットワークと同様に、LLM は自己監視学習によって重みを調整し、妥当な次の単語の確率を高めます。現在使用されている最も高度な LLM は、数千億件もの重みによって出力を調整しています。
真の AI か、AI ウォッシングか
これでディープラーニングと LLM の基本を理解したので、特定の商品が本当に AI を活用しているか、それとも AI ウォッシングかを考えることができます。
AI ウォッシングは、AI の盛り上がりを利用して収益性を高めるために、製品に使用されている AI の量について誤解を招く主張や誇張された主張をする場合に発生します。
AI ウォッシングを特定するためには、製品を評価する際に、次の問いについて考えてみてください。
その製品が期待に沿った出力を生成するためには、人間が著しく関与する必要がありますか? 真の AI の特徴は高度な自律性であり、人間による最小限の入力で期待に沿った結果をもたらします。
その製品の背後にいる企業には、AI を機能させるために使用されるデータの種類とアルゴリズムについての透明性がありますか? ブラックボックスアプローチ(内部の仕組みやプロセスを明らかにせずに、製品の入出力のみにフォーカスすること)は、テクノロジーが期待どおりではない可能性を示す危険信号であることがよくあります。
残念ながら、上記の問いに合格できない製品やサービスを宣伝するために AI という用語を使用している企業が多すぎます。そのため、企業の初めの主張を表面的にとらえず、もう少し深く掘り下げて、製品が本当に AI を活用しているかどうかを判断することが重要です。
バイアスとハルシネーション
AI ソリューションを評価する際に考慮すべき重要な点が他にもあります。「ハルシネーション」は覚えておくべき重要な概念です。AI ハルシネーションとは、正しくない結果、誤解を招く結果、または馬鹿げた結果のことです。このような誤った結果は、AI による思い込みを引き起こす可能性のある不十分なデータやバイアスのかかったデータをトレーニングに使用することなど、さまざまな要因が原因で発生します。
AI モデルは、トレーニングに使用するデータに基づいて結果を予測するように設計されていることを忘れてはなりません。誤ったデータがインジェストされても、不正確な結果につながるだけです。
AI の盛り上がりのサイクルを把握
急速に変化する潮流、嘘の有望性、新たな AI の進歩に伴う過剰な期待を把握する方法の 1 つは、Gartner が作成した図を見ることです。
Gartner は 6 月に 2024 Hype Cycle for Artificial Intelligenceを発表しました。これは、新たなテクノロジーがどのように進化し、成熟し、一般大衆に受け入れられるかに関する調査結果です。
第 1 段階では、新しいテクノロジーのイノベーションが進み、イノベーションのピークに向かって勢いを増して盛り上がっていきます。
ピークに達した後、このテクノロジーは幻滅されて失望の底へ転落し、過酷な試練が始まります。過剰な期待に影響されることなく、人々はそのテクノロジーの真の機能を理解し始め、実用的な使い道を考案します。そのサイクルをさらに進めていくと、やがて生産性が安定します。
Gartner によると、AI は盛り上がりのサイクルの中を急速に進んでおり、生成 AI はすでに失望の底に達しています。しかし、この段階は失望の底という悲観的な呼び方がされていますが、真のイノベーションの機会であり、人々が AI の欠点を正しく理解して AI の有望性を具現化するよう促します。現在この状況が発生している業界の 1 つが、サイバーセキュリティです。
サイバーセキュリティにおける AI:脅威検知の未来
AI 革命によって、良くも悪くも、サイバーセキュリティに変革がもたらされたことに疑いの余地はありません。
AI モデルがより洗練されると、それに伴ってサイバー犯罪者が使用する戦術も進化します。攻撃者は、ますます生成 AI を使用して攻撃を自動化、強化、拡張するようになっており、その結果、脅威の検知と緩和が困難になっています。
しかし、サイバーセキュリティへの自動化の統合は大きなチャンスです。 特に脅威検知の領域ではこれが当てはまります。サイバーセキュリティ担当者は AI を使用して、以前よりはるかに迅速に大量のデータを自分で分析し、パターンを特定し、潜在的な脅威を示す可能性のあるユーザーのふるまいの異常を検知できます。
また、AI を使用してインシデント対応プロセスを合理化できます。影響を受けるシステムの隔離、悪性トラフィックのブロック、アラートの発動など、検知された脅威に対して事前に定められたアクションを自動的に実行することで、AI は潜在的な脅威にリアルタイムで対応できます。
AI を常に現実のものに:必要なのは AI の盛り上がりではなく成果
Akamai は 2015 年からディープラーニング AI を使用して 自社のソリューション を強化してきました。
Akamai の AI ツールは、トラフィックがボットか人間のユーザーかを判断することから、API の悪用や不正な Web サイトを特定することまで、さまざまな重要なタスクを実行します。Akamai のソリューションは約 10 年にわたって機械学習を活用してきました。Akamai は現在、顧客に明確なメリットがある場合に最先端の AI を製品に追加することで、この取り組みを継続しています。
AI に関する Akamai の基本原則は、このテクノロジーを取り入れる方法と理由についての透明性を維持し、Akamai の能力を誇張したり、AI ウォッシングに関与したりしないようにすることです。
Akamai は AI を賢く効果的に活用することに努め、AI への理解を深めながら徐々に機能を拡張させています。そうすることで、AI は人工的な盛り上がりではなく、常に現実のものとなります。