EUでも規制が始まる「AI法」最終案!人権侵害に繋がることでは使用禁止

この記事は約3分で読めます。
記事内に広告が含まれています。

みなさん、いかがお過ごしだったでしょうか。

どうも、れきをくん(@rekiwokun)です。

最近はYouTubeの動画の作成もAIを利用して作成されるほど、AIの進化が非常に著しいことはITに精通にしていない人も感じることでしょう。

今回はそのAIをの性能によって、EUで4段階に分けて規制する法案が策定されたので、お伝えしていきたいと思います。

では、今回の講義を始めます。

EUがAIを規制する理由

世界中でAIの開発が熾烈な競争を繰り返し、激化する中で、欧州連合(EU)では著しい進化をたどるAIをリスク区分として4種類の類型に分けて規制することにしまいた。

フランス・ドイツ・イタリアは自国の企業の競争力が低下することを懸念して、自主的に規制することにするべきで、欧州連合(EU)として規制する必要性はないと反対していましたが、無事に同意を経ることができました。

では、具体的にどういった規制なのかをみていきましょう。

AIのリスク規制の4類型

欧州委員会の公式発表では、「大多数のAIは最小限のリスクに分類される」としながらも、今後の更なる発展を考え、4類型を法定化しました。

引用:EU「AI法」最終案、「人の信頼度」ランキングなどでの使用禁止…仏独伊「開発優先派」と激論 : 読売新聞

許容できないリスク

AI法の骨格で一番大事なのは許容できないリスクを考えることです。

この許容できないリスクでは使用ができません。

許容できないリスクに該当するのは、人権の侵害に繋がるケースです。

例えば、未成年の行動を操作したり、人の信頼度をランク付けするといったことが該当します。

ハイリスク

人権の侵害に繋がるほど深刻ではないが、差別が生じる可能性がある場合です。

ここで使用する場合は、利用記録の保持などの厳格な規制を順守する必要があります

例えば、採用選考での利用などが該当します。

限定的なリスク

以前から日常的に使われてきた分野での使用ですが、著作権などの侵害に繋がる場合があるため限定的なリスクに該当します。

ここで使用する場合は、AIが作った文書や画像を明示するなどの情報開示を求められることがあります

例えば、チャットボットなどが該当します。

最小限のリスク

ゲームや迷惑メールなどにAIを利用することは大きな問題に発展しにくいと考えられます。

そのため、任意の行動規範を策定することに留めることにしました。

スポンサーリンク

アメリカでも規制開始

アメリカは企業の独立性を尊重してAIの規制をしてきませんでしたが、規制に動いたのには深刻な理由があります。

それは偽情報などの不安が高まっているためです。

というのも、文章や動画を生み出す、所謂、生成AIが急速に発展し、普及していくと偽情報が拡散してしまいます。

アメリカとしては来年の大統領選も考え、偽情報の拡散は控えたい考えがあります。

そのため2023年10月にバイデン大統領が「AIの安全性を確保するための大統領令」に署名し、法的拘束力のある規制が導入されました。

まとめ

では、日本はというと、G7の議長国としてAIの国際ルールの策定に取り組んできました。

法規制を進める他国に比べ、日本は事業者向けガイドラインを策定するという独自路線を選びました。

このガイドラインには予想される危険性を開示するなどが盛り込まれるようです。

しかし、やはり日本は他国に比べると少しなんでも遅いような気がします。

今回の講義はこれで終わります。

では、またお会いしましょう!

スポンサーリンク
タイトルとURLをコピーしました