※本サイトのコンテンツには、商品プロモーションが含まれている場合があります。
第一線のAI専門家26人が、犯罪者やテロリストによるAIの悪用はすでに可能だと警告をしているという。
14機関の専門家26人が今月、英オックスフォードでAIの危険についてワークショップを開いた。その結果をもとにした報告書「悪意ある人工知能の利用」は、ならず者国家、犯罪者やテロリストによるAIの悪用はすでに可能で、機は熟していると警告している。
報告書には、非営利研究機関「オープンAI」やデジタル権利団体「電子フロンティア財団」、米国立安全保障シンクタンク「新アメリカ安全保障センター」も参加している。AIシステムの設計者は、自分たちが開発する技術が悪用される可能性を減らすため、今まで以上に努力する必要があるという。さらに報告書は、各国政府は新たな法律を検討しなくてはならないとも提言している。
報告書の主な提言は次の通り――。
・政策決定と技術研究の担当者は連携して悪意あるAIの使用について理解し、備えなければならない
・AIは様々な形で有用だが、諸刃の剣の技術で、研究者や技術者は悪用される可能性に留意し、先回りして対応する必要がある
・善悪両方に使える技術を長く扱ってきた分野(たとえばコンピューターのセキュリティ)から、最善慣行を学ぶべき
・AIの悪意ある使用リスクを軽減し防止しようと取り組む、利害関係者の範囲を積極的に拡大させるケンブリッジ大学人類絶滅リスク研究センター(CSER)のシャハール・アビン博士は、遠い未来のことよりも、現在入手可能な、あるいは5年以内に入手可能になる分野のAIに重点を置いたと、報告書についてBBCに話した。
続きはソース元から
http://www.bbc.com/japanese/features-and-analysis-43139275
続きを読む
Source: IT速報
コメントを残す
コメントを投稿するにはログインしてください。