昨年の夏、OpenAIが巨大な自然言語処理アルゴリズム「GPT-3」を発表したとき、多くの人が驚きました。初期のAPIに特別にアクセスしたコーダーや開発者は大興奮。GPT-3を使って詩を書いたり、まともなコードを書いたり、簡単な計算をしたり、いくつかの編集を加えてニュース記事を書いたりしました。
OpenAI GPT-3が起こす革命
OpenAIは最近のブログ記事の更新で、何万人もの開発者がGPT-3プラットフォームでアプリを作っていると述べている。
300以上のアプリがGPT-3を使用しており、そのアルゴリズムは1日に45億語を生成しているという。
もちろん、これは膨大な数の単語です。しかし、その数を把握するために、ちょっとした裏ワザを使って計算してみましょう。
アルゴリズムに基づくコンテンツの急増
コンテンツ管理システムとして圧倒的なシェアを誇るWordPressでは、毎月約7,000万件の記事が投稿されています。
平均的な記事の長さを800ワードと仮定すると(これは私の推測ですが、長くも短くもありません)、WordPressでは1ヶ月に約560億ワード、1日に約18億ワードの記事が作成されていることになります。
もし、私たちが想定している平均ワード数が妥当なものであれば、GPT-3はWordPressの1日のワード数の2倍以上を生み出していることになります。
1記事あたりの平均文字数を2,000字程度にしても、両者はほぼ同等です。
しかし、GPT-3が生み出すすべての単語が読む価値のある単語ではありませんし、必ずしもブログ記事を生み出しているわけでもありません。
しかし、いずれにしても、開始からわずか9ヶ月で、GPT-3の出力は、迫り来るアルゴリズムコンテンツの激流を予見しているかのようです。
GPT-3はさまざまなアプリを動かしている
では、これらの単語は具体的にどのように使われているのでしょうか。最初の動きが示唆していたように、開発者はGPT-3を使ってさまざまなアプリを作っています。
例えば「Viable」は、アンケートやレビュー、ヘルプデスクのチケットなどのお客様の声からテーマを抽出し、サービス向上を目指す企業のために短いサマリーを提供しています。
Fable Studioは、GPT-3で生成されたダイアログを使って、インタラクティブなストーリーの中のバーチャルキャラクターに命を吹き込んでいます。
また、AlgoliaはGPT-3を使って高度な検索ツールを提供しています。
開発者は、コードの代わりに、生成したい出力の例をいくつかGPT-3に提示して、「プロンプトプログラミング」を行います。
さらに上級者は、例のデータセットや人間のフィードバックを与えることで、アルゴリズムを微調整することができます。
この点において、GPT-3(および他の類似アルゴリズム)は、自然言語処理(NLP)における機械学習の導入を早める可能性があります。
OpenAIによると、GPT-3の開発者の多くは、AIやプログラミングの知識を持たない人たちです。
OpenAIの最高技術責任者兼共同設立者であるグレッグ・ブロックマンは、今月初めの記事で「Nature」に対し、「コンピュータを扱うための新しいインターフェースと言っても過言ではありません」と述べています。
AIを有効活用するための壁
OpenAIは、GPT-3のライセンスをMicrosoftに供与している。
Microsoftは、このようなパートナーシップの見返りとしてOpenAIに10億ドルを投資したが、コードは公開していない。
同社は、機械学習製品を収益化することで、自分たちの大きな使命を果たすことができると主張しています。
また、APIでアクセスを厳密に制限することで、技術の使用方法をコントロールできるとしています。
例えば、GPT-3のような高度な自然言語処理アルゴリズムは、ネット上の偽情報を助長する可能性があるという懸念があります。
また、大規模なアルゴリズムにはバイアスが含まれており、その影響を抑えるためには細心の注意を払う必要があります。
最初の騒動のピーク時には、OpenAIのCEOであるサム・アルトマンが「GPT-3の宣伝はやりすぎだ」とツイートした。
まだ深刻な弱点があり、時々ありえないミスもします。
ディープラーニングのアルゴリズムには、常識や文脈の認識が欠けています。
だからもちろん、適切なプロンプトがあれば、GPT-3は学習データセットの一部であるネット上の醜聞を簡単にオウム返しにした。
このような問題に対処するため、OpenAIはGPT-3へのアクセスを許可する前に開発者やアプリケーションを審査しています。
また、開発者向けのガイドラインを作成し、バイアスを特定して軽減するためのツールを開発中で、アプリの悪質な動作を監視するためのプロセスと人材を必要としています。
GPT-3へのアクセスが拡大したときに、これらの保護措置が十分に機能するかどうかはまだわかりません。
研究者たちは、アルゴリズムにある程度の常識、原因と結果の理解、道徳的判断を与えたいと考えています。ワシントン大学アレン研究所のコンピュータサイエンティストであるYejin Choiは、Nature誌に次のように述べています。「今あるのは、基本的に脳のない口です。」と。
これらの資質が手の届かないものである限り、研究者やGPT-3を扱う人間は、メリットがリスクを上回るように努力しなければならないでしょう。