非営利団体OpenAIが開発した「GPT-3」についてです。

非営利団体OpenAIが開発した「GPT-3」についてです。
以前から精密すぎるなどという理由で話題にはなっていました。新型コロナウイルスの影響に伴い多くの企業がAIを取り入れる動きが見られていますが、AIの進化とそれに対応しようとする人間、AIと人を分ける線引きなどと問題点が浮き出てきたように思います。

この投稿で著者は、AIを使用する企業にいくつかの提言をしています。
まず、自社のAIをテストし、透明性を提供することで、コミュニティの信頼を築くべきだという。OpenAIの場合、複数の研究者にデータを提供し、コードへのアクセスを提供しました。また、GitHubでAI開発者のリストを公開しています。
第二に、コミュニティに与える影響と、一般の人々に与える影響を考慮する必要があります。ここでは、彼らが責任を持ち、透明性を示す必要があります。新しいAIを開発する際には、社会への潜在的な影響を考慮する必要があります。これは、医療研究への影響だけではありません。特にAIが組織の手に渡った場合、一般の人々はAIの内部で何が行われているかを知る権利があります。
3つ目は、企業がAIの利用について考えることです。AIの大きな問題のひとつは、わかりやすく説明することが苦手なことです。AIがあればあるほど、複雑になっていきます

この作品の出来はいかがでしたでしょうか。ご判定を投票いただくと幸いです。
 
- 投票結果 -
よい
わるい
お気軽にコメント残して頂ければ、うれしいです。