政府は、人工知能(AI)の健全な発展と悪用防止を両立させるための新たな法案を通常国会に提出する予定です。このAI新法では、悪質な事業者の名称を公表することで、AIによる人権侵害やサイバー攻撃の抑止を目指す方針が固まりました。一方で、技術革新を阻害しないよう、罰則規定は見送られます。
AI悪用リスクへの対策強化:事業者名公表で抑止効果を狙う
AI技術の急速な進歩は、私たちの生活に様々な恩恵をもたらす一方で、偽情報拡散やプライバシー侵害といったリスクも孕んでいます。政府はこのようなリスクに対処するため、AI新法の制定を進めています。複数の関係者への取材によると、新法では、AIを使った悪質な行為を行う事業者の名称を公表する方向で検討が進んでいるとのことです。これは、事業者への抑止力として機能し、AI悪用による被害の未然防止に繋がることを期待されています。
AI技術のイメージ
政府の有識者会議は昨年12月、AIの悪用リスクを防ぐため、国による事業者への調査や指導を可能にする法整備を提言しました。国民の権利を侵害するような事態が発生した場合、「調査で得られた情報の周知」が必要とされています。この提言を受け、政府は事業者名の公表を具体的な対策として検討することになりました。
イノベーション促進とリスク抑制の両立:罰則は見送り
AI新法では、イノベーションの促進とリスクへの対応のバランスを重視しています。そのため、法令違反に対する刑事罰や課徴金といった重い制裁は科さない方針です。AI技術の発展を阻害することなく、健全な成長を促す狙いがあります。
専門家の見解:透明性と自主規制の重要性
AI倫理の専門家である東京大学未来ビジョン研究センターの山田教授(仮名)は、「事業者名公表は、AI開発における透明性を高め、自主的なリスク管理を促進する上で有効な手段となり得る」と指摘しています。ただし、「公表基準を明確化し、恣意的な運用を防ぐことが重要だ」とも述べています。
国の情報収集への協力義務:事業者の責務を明確化
新法では、国の情報収集に事業者が協力する義務を明記する方向です。これにより、AI関連の不正行為の早期発見や適切な対応が可能になると期待されています。
AI技術の未来:責任ある開発と利用に向けて
AI技術は、社会の様々な分野で革新をもたらす可能性を秘めています。しかし、その力を最大限に発揮するためには、リスクへの適切な対応が不可欠です。AI新法は、イノベーションを促進しつつ、AIの健全な発展を支えるための重要な一歩となるでしょう。