特定の人の顔を認識するという人工知能=AIの技術は、ロックの解除などさまざまなところで活用が広がっています。ところが、第三者が別のAIを悪用すると顔のデータを再現できてしまうおそれがあるとする実験結果を筑波大学の研究グループがまとめ、なりすましなどへのセキュリティーのあり方に一石を投じています。 これに対し、筑波大学人工知能科学センターの佐久間淳教授の研究グループは、特定の人の顔を学習したAIを別のAIに攻撃させ、学習した顔を類推させる実験を行いました。 攻撃側のAIは、まず適当な画像を作り出して攻撃対象のAIに見せます。そして、学習した人の顔とどれくらい似ていると攻撃対象が識別したかを読み取ります。そのうえで、得られた結果をもとに顔を類推し、より似せた画像を作るという作業を高速で繰り返しました。 その結果、攻撃側が作った画像は初めは意味をなさないものでしたが、学習した人の顔に急速に似てい