政府が人工知能(AI)に関する新たな法案を国会に提出した。 技術革新の促進とリスク対応の両立を重視し、罰則規定は盛り込まなかった。AI悪用による犯罪などに対する懸念が強まる中、悪質な事業者名を公表するなどして対処する方針だが、専門家からは実効性を疑問視する声も上がる。 「国民の権利・利益の侵害が生じた事案は(国民への)情報提供を行うことでリスク対応の実効性を高める」。城内実科学技術政策担当相は2月28日の記者会見で、法案の閣議決定を受けてこう強調した。政府は今国会中の成立を目指す。 急速に発展するAIは国民生活の向上に寄与する一方、偽・誤情報の拡散など弊害も顕在化している。政府はこれまでガイドラインで事業者に適正利用の自主的な取り組みを促してきたが、サイバー攻撃や兵器製造への転用といった安全保障上のリスクまで指摘されるようになり、さらなる措置を講じる必要に迫られた。 法案は、犯罪利用や人権侵害といった悪質事案は国が調査し、事業者を指導・助言、事業者名を公表できると定めた。法案作成中の意見公募では罰則を求める主張も多く出たが、政府は「イノベーションを阻害する過剰な規制は避ける」(城内氏)として、罰則は見送った。 内閣府幹部は「想定されるほとんどのリスクは既存法で対処できる」と説明する。実際、AIを悪用したプログラムで楽天モバイルのシステムに侵入したとされる中高生3人は、不正アクセス禁止法違反などの容疑で逮捕された。 海外の対応は分かれる。安全性を重視する欧州連合(EU)は規制法を整備し、人間を社会的に格付けするなどの技術を禁止。違反した場合、3500万ユーロ(約55億円)または世界年間売上高の7%のうち高い方の罰金を科す。 これに対し、米国は安全性の評価などを義務付けたバイデン前政権の方針をトランプ政権が転換。開発を規制しない姿勢を鮮明にした。 AI法制に詳しい慶応大の大屋雄裕教授(法哲学)は、日本の法案について「実効性はそこまでなく、中途半端という声も出るだろう」と指摘。AI悪用による深刻事案が相次いだ場合は「強制力を持つ規制法の導入を求める声が出てくる可能性はある」との見方を示した。