「GPT-3を規制すべきかどうか」という問題は、他のAIのアプリケーションを含む、より広い範囲の問題です。
私が考えるGPT-3の大きな違いは、狭義の他のAIアプリケーションとは異なり、その性能が一般的で人間に近いということです。
これは、ディープフェイクなどの技術にも共通する懸念です。
とはいえ、OpenAIが規制をかけているということは、彼らがその技術の有害な可能性を認めているということです。
もしそうだとしたら、教育を受けた規制者がいない中で、営利企業の自主規制を信用できるでしょうか?
そのような企業が、倫理と収益の間のトレードオフに直面したら、どうなるでしょうか?
結局のところ、答えは「イエス」ですが、主な課題は、安全なAI導入を保証するために、規制がどのような方法で、どのような場合に有効な手段となるのかを理解することです。
個人的には、業界や研究が独自の基準や推奨事項を設定することで、規制当局を打ち負かすと考えています。それはまた、危険なことですが。
人間の知能はマルチモーダルな働きをしており、「この写真には何が写っているのか」「これは有害なコメントなのか」などの判断をする際には、五感をフルに活用します。
さらに、その判断には、過去の経験などの他の要素も取り入れます。これは事実上、MLの転移学習に相当するものです。
この2つを取り入れないということは、構築しているMLモデルを(欠落した)データに閉じ込めることになります。
「モデルは訓練されたデータと同じくらい良い」という言葉が有名なら、「モデルは訓練されたデータの完全性と同じくらい良い」というのはどうでしょうか?
-Sahar Mor