人工知能(AI)にかかると、静止画である写真を動画のように動かすこともできる。写真しか残っていない亡母の姿を加工して、生前の様子を再現する-。そんな活用例があるそうだ
▼スマホで交流サイト(SNS)を眺めていたら、歴史上の人物の写真が動き出す動画に出くわした。不自然さはほぼ感じず、静止画でしか見たことのなかった人物に奥行きが加わったように感じた。故人をしのんだり、歴史の理解に役立ったりするなら意義のある技術だ
▼一方で悪用の懸念もつきまとう。精巧な偽の画像や動画「ディープフェイク」の悪影響が指摘されるようになり久しい。2年前の台風で記録的な大雨に見舞われた際は、多くの住宅が水に漬かったように見える画像がSNSで広まった。後に生成AIで作られたものと分かった
▼ウクライナのゼレンスキー大統領や米国のハリス副大統領をモデルにした偽動画の存在も知られている。人間の目では本物かどうか見分けるのが難しいこともあり、災害時や選挙の際などで大きな混乱をもたらす恐れがある
▼「私たちは日常的に巧妙な偽情報にだまされる危険にさらされている」。ネットの問題に詳しい国際大グローバル・コミュニケーション・センターの山口真一准教授が先日の本紙で指摘していた
▼情報の真贋(しんがん)判断能力が高いと思い込んでいる人ほど、うその情報を信じやすいという調査結果もある。「だまされるかもしれない」。ネット情報に接する際は、こんな意識が不可欠なのか。