今後、GPT-3を規制すべきか?倫理と収益の間のトレードオフについて

「GPT-3を規制すべきかどうか」という問題は、他のAIのアプリケーションを含む、より広い範囲の問題です。

機械学習

私が考えるGPT-3の大きな違いは、狭義の他のAIアプリケーションとは異なり、その性能が一般的で人間に近いということです。

これは、ディープフェイクなどの技術にも共通する懸念です。

とはいえ、OpenAIが規制をかけているということは、彼らがその技術の有害な可能性を認めているということです。

もしそうだとしたら、教育を受けた規制者がいない中で、営利企業の自主規制を信用できるでしょうか?

そのような企業が、倫理と収益の間のトレードオフに直面したら、どうなるでしょうか?

結局のところ、答えは「イエス」ですが、主な課題は、安全なAI導入を保証するために、規制がどのような方法で、どのような場合に有効な手段となるのかを理解することです。

個人的には、業界や研究が独自の基準や推奨事項を設定することで、規制当局を打ち負かすと考えています。それはまた、危険なことですが。

人間の知能はマルチモーダルな働きをしており、「この写真には何が写っているのか」「これは有害なコメントなのか」などの判断をする際には、五感をフルに活用します。

さらに、その判断には、過去の経験などの他の要素も取り入れます。これは事実上、MLの転移学習に相当するものです。

この2つを取り入れないということは、構築しているMLモデルを(欠落した)データに閉じ込めることになります。

「モデルは訓練されたデータと同じくらい良い」という言葉が有名なら、「モデルは訓練されたデータの完全性と同じくらい良い」というのはどうでしょうか?

-Sahar Mor

スポンサーリンク







シェアする

  • このエントリーをはてなブックマークに追加

フォローする

スポンサーリンク