人工知能(AI)の活用で、生産性の向上や革新的な製品開発が期待される一方、悪用も起きている。安全性の議論が欠かせない。

 政府はリスクに十分目を向け、国民が安心して技術を利用できる環境を整える必要がある。

 政府がAI法に基づいて策定を進めているAI基本計画案の全容が判明した。

 国民の生成AI利用率は2024年度に25%程度だったが、段階的に8割まで引き上げるとの目標を掲げる。開発環境を整える中で「1兆円の民間投資を引き出す」ことも盛り込んだ。年内の閣議決定を目指す。

 総務省によると、24年度の生成AIの利用率は米国は7割に迫り、中国は8割を超す。民間投資額は、米国の1091億ドル(約16兆円)に対し、日本は9億ドルにとどまるとの調査もある。

 政府は計画を進めることで、海外に大きく後れを取る現状の打破を狙う。AIの活用や、日本が強みを持つ産業分野とAIの融合などにつながるよう期待したい。

 例えば、AIが自律的にロボットを制御する「フィジカルAI」は、工場やビル管理での実用化が探られる。医療や介護、農業といった分野への活用も検討されており、人手不足が深刻な日本で国力を支える技術となり得る。

 計画案で、AIを「危機管理投資の中核」と位置付けたいのは理解できる。

 ただ、AIを巡っては、多くの問題点が顕在化している。

 米新興企業「パープレキシティ」が提供するAI検索には、記事の無断利用があるとして、日本の報道機関が無断使用の差し止めを求める訴訟を起こしたり、抗議声明を発表したりしている。

 このAI検索では、記事の内容と異なる虚偽情報が回答された例もあった。拡散した偽情報から利用者が誤った判断をする恐れもあり、重大な問題だ。

 米オープンAIが提供する動画サービス「Sora(ソラ)」では、日本のアニメキャラクターと酷似した動画が生成され、著作権侵害の疑いがあると指摘された。

 AIで企業や商品の低評価をネット上に大量に出し評判を落とす、逆に広告であることを隠して宣伝するなどの例も想定される。

 AIの悪用に対し、今回の計画案では、政府が調査して実態把握に努めると明記したものの、知的財産への対応については「適切な保護を図る」など、抽象的な内容にとどまった。

 計画の基となるAI法も、悪質な事業者に国が指導できる権限を定めているが、強制力も罰則もない。悪用対策の実効性をいかに担保するか、課題が残る。

 安全性に不安を抱えたままAI利用が広がれば影響は大きい。政府はリスク対策を重視し、計画に反映させるべきである。