下記の記事で生成AIの活用事例を整理しましたが、生成AIを活用するにあたっては注意しなければならないリスクが存在します。
2023年5月26日の内閣府のAI戦略会議では、以下の7つのリスクを挙げています。
- 機密情報漏洩や個人情報の不適切利用
- 犯罪への悪用
- 偽情報が作りやすくなる
- サイバー攻撃の巧妙化
- 教育現場での不適切利用
- 著作権侵害
- 失業者の増加
以下では、この7つに沿って各リスクについて解説していきたいと思います。
機密情報漏洩や個人情報の不適切利用
学習データに国家や企業の機密情報や個人情報などが含まれるリスクです。
まず、これらの情報が大規模言語モデルに直接インプットされることがリスクとなります。これにより、AIが機密情報や個人情報を正しくまたは誤ってアウトプットすることが問題となります。
また、AIとの対話情報、インターネット上の情報などから、個人の趣向などを推定し、広告配信等に利用するといった不適切な目的で利用されるリスクもあります。これについても、正しく推定される場合と誤って推定される可能性があり、個人に関する誤った情報がアウトプットされる懸念もあります。
犯罪への悪用
生成AIが以下のような犯罪に利用されるリスクです。
- AIにより生成された画像・音声・文章などが詐欺などに利用される
- 生成AIを通じて武器・違法薬物などの製造に関する情報を利用される
- ディープフェイクによるサイバー犯罪
今後技術の発展に伴い、様々な犯罪に利用されることが懸念されます。法制度・ガイドラインの整備や生成AIが不適切な回答をしないように制御するなど対応が求められます。
偽情報が作りやすくなる
生成AIにより、本物と見分けがつかない偽情報・誤情報・偏向情報を誰でも簡単に作ることができるようになります
SNSなどにおいて選挙候補者に対するプロパガンダを単純なコピー&ペーストの文章ではなく、AIにより生成された説得力のある文章で行うことができます。また、それらの情報が偽情報と判別できず、マスメディアやSNSユーザーにより拡散されてしまうリスクもあります。
法制度・ガイドラインの整備が求められるとともに、文章などが生成AIにより作成されたものかを判定するソフトウェア等の開発(ディープ・フェイクを検知する技術の開発)が求められます。
サイバー攻撃の巧妙化
生成AIに関するサイバー攻撃のリスクには、大きく2つのリスクがあります。
- 生成AIを利用したサイバー攻撃
- 生成AI自体に対するサイバー攻撃
AIにより作成したコンテンツを利用したサイバー攻撃には、チェックツールで検知しにくい攻撃メールの作成、サイバー攻撃プランの作成、人間になりすました攻撃などがあります。
生成AI自体に対するサイバー攻撃には、AIに誤った処理を誘発させたり、不適切な情報を出力させたりすることがあります。
AIがリスクになる一方で、機械学習の活用によって脅威を検知するアンチウイルスソフトNGAV(Next Generation Anti-Virus:次世代アンチウイルス)などの開発も進んでおり、そのようなツールを活用した対策が期待されます。
教育現場での不適切利用
学生が、生成AIを宿題やレポート・論文作成に利用し、学力・創造力などが低下する懸念もあります。
その一方で、生成AIにより、学生個人の学習度合いに応じたカリキュラム作成、サポートを行い、学習効果を高めることも期待されます。また、教師の負担を減らしたり、授業の効率化を行うことも期待されます。
どのようなカリキュラムや課題において生成AIをどのように活用すべきかガイドラインの策定が求められます。また、学生のAI自体に対するリテラシーを高めるための教育も必要になるでしょう。
下記記事で、教育領域の生成AIの活用事例をまとめています。
著作権侵害
インプットに利用するコンテンツ、アウトプットされたコンテンツが著作権などの知的財産権を侵害するリスクがあります。
生成AIにより生成された音楽・絵画が既存の著作物と類似している場合、著作権侵害になる可能性があります。
現状は、現行の著作権の法制度に則って対応されますが、どのような場合に著作権侵害を構成するかガイドラインを整理する必要があります。また、AIにより作成されたコンテンツについては「AIにより作成された」旨を明記するといった実務面での対応も必要になるでしょう。
また、AIにより作成された著作物に著作権が認められるかという点も論点になります。米国著作権局は「人間によって作成された」作品にのみ著作権を認め、裁判所は、人間以外の著者には著作権保護を認めていません。
失業者の増加
生成AIが人間の業務を代替し、失業者が増加するリスクがあります。
従来のAIにおいても単純作業が代替される可能性が指摘されていましたが、生成AIの登場より、文書作成、画像制作、質問対応などより広い範囲での業務が代替される可能性があります。
そのような業務が代替された場合に備え、従業員の配置転換やリスキリングなどを企業として取り組んでいく必要があります。個人もスキルの幅を広げるといった研鑽を行っていかなければいけないでしょう。
まとめ
以上、生成AIを活用するにあたって注意しなければならないリスクをまとめました。
生成AIが活用される領域は非常に広いため、様々な観点でのリスクとその対策の検討が必要となるでしょう。法律で規制すべき内容もあれば、基準やガイドラインにとどまるものもあるかと思います。今後、リスクが顕在化し、裁判などに発展することで、徐々に統一的な見解が示されることが見込まれます。
コメント
コメント一覧 (1件)
[…] 生成AIを活用するにあたって注意しなければならない7つのリスク […]