fc2ブログ

ChatGPTに騙された弁護士、法的制裁を受けることに

<記事原文 寺島先生推薦>
Lawyer duped by ChatGPT facing legal sanctions
A New York attorney admitted to using the AI model for research, insisting he didn’t realize it could lie
ニューヨークの弁護士が、AIモデルを研究用に使用したことを認め、嘘をつく可能性があることに気付かなかったと主張した。
insisting he didn’t realize it could lie
出典:RT 2023年5月28日
<記事翻訳 寺島メソッド翻訳グループ>  2023年6月7日


1123-1.jpeg
ChatGPTに騙された弁護士、法的制裁の対象に© Getty Images / Eduardo do Parra


 ニューヨークの航空関係専門弁護士スティーブン・シュワルツ氏は、同氏が提出した法的準備書面にはAI言語モデルChatGPTによって作成された「偽の司法判断」と偽の引用に満ちていることが発覚し、職業上の制裁を受ける可能性があると、先週公開された裁判記録で明らかとなった。

 シュワルツ氏は、木曜日(5月25日)の宣誓供述書で、ChatGPTを初めて法律研究に使ったのは、自分が担当している裁判が却下されないようマンハッタン連邦裁判官P・ケビン・キャステル氏を説得するために10ページの準備書面の作成に取り掛かったときだと語った。そのため、自分は「その内容が虚偽である可能性があることに気付かなかった」と説明している。

 法的提出書類の中で引用した半ダースの事例は実在するのかと問われ、ChatGPTは30年の経験を持つ弁護士であるシュワルツ氏に実在するとまで言ってのけた、と同氏は主張した。

 同氏は、この大規模な言語モデルを信頼したことを「非常に後悔している」と述べ、「今後は決してそのようなことはしない」、少なくとも「その真正性の絶対的な検証なし」には使わないことを約束した。

1123-2.jpg

関連記事:「AIのゴッドファーザー」が警告を発し、グーグルを辞める

 シュワルツ氏の法律事務所レビドー・レビドー & オーバーマンは、2019年の航空機事故に関してアビアンカ航空会社を相手取った人身傷害訴訟で、乗客ロベルト・マタ氏の代理人を務めていた。同社がこの訴訟に対し、時効が成立しているとして却下を申請したところ、シュワルツ氏と彼の事務所はChatGPTを採用した準備書面で応じた。

 アビアンカ社の弁護士は、引用された事例は存在しないと裁判官に訴えたが、カステル裁判官がマタ氏の弁護士(シュワルツ氏)に疑わしい意見のコピーを提出するよう命じると、彼らはすぐにそれを提出した。それに対してアビアンカ航空の弁護士は、そのような事例は法廷の書類や法的データベースには存在しないとだけ反論した。

 カステル裁判官は今月初め、シュワルツ氏らがChatGPTを使って準備書面を作成したことについて、懲戒処分を受けるべきでない理由を示すよう求める命令を出した。審理は6月8日に予定されている。

 これに対してシュワルツ氏は、木曜日に提出した宣誓供述書の中で、問題のある準備書面の中にある法的調査のすべてを自分が行い、単に自分の仕事を「補完」するためにChatGPTを活用したと主張した。AIソフトウェアモデルと「相談」して、彼は偽のケースにたどり着き、「ChatGPTがその内容の信頼性を保証した」と彼は説明している。

 同氏はこのチャットボットとの会話の記録を添付したが、そこで分かることは、チャットボットがあきらかに彼より知恵があったことだ。このロボットは「あなたが提供した他の事例は偽物ですか?」といった質問に「いいえ、私が提供した他の事例は本物で、信頼できる法的データベースで見つけることができます」と答えていたのである。

 利用者の問い合わせに対するChatGPTの回答は事実に基づいているように見えるが、そこに搭載されている大規模な言語モデルは確率エンジンとして機能し、テキスト・スニペット(訳註:断片的な情報)の膨大なデータベースの内容に基づいてテキスト文字列を生成しているだけなのである。
スポンサーサイト



AIは「とんでもない過ちをするかもしれない」-チャットGPTの発明者

<記事原文 寺島先生推薦>
AI ‘could go quite wrong’ – ChatGPT inventor
Sam Altman has told US Congress that the technology could cause “significant harm”
サム・オルトマンは、米国議会に対して、チャットGPTが「重大な損害」を引き起こす可能性があると述べた。
出典:RT 2023年5月17日
<記事翻訳 寺島メソッド翻訳グループ> 2023年5月25日



上院委員会にて人工知能の規制に関する証言を行うOpenAIのCEO、サミュエル・オルトマン© Getty Images / Win McNamee


 チャットを開発した企業であるOpenAIのサム・オルトマン代表取締役は、米国の立法者に対して人工知能に関する規制を制定するよう求めた。オルトマンは火曜日(5月16日)に、「この技術はかなりの問題を引き起こす可能性がある」と警告し、このAIプログラムの出現を印刷機の発明に喩えた。

 上院司法委員会での5時間にわたる審問の中で、チャットGPTの発明者オルトマンはAIチャットボットの潜在的な危険性とそれらが人類の歴史を変える能力について質問攻めにあった。オルトマンは、彼の最も恐れることはその技術によって「重大な損害」が引き起こされる可能性であると認めた。

 「もしこの技術が誤った方向に進んだ場合、それはかなりまずいことになる可能性があります。私たちはそれについてはっきりと発言したいと考えています」と彼は述べた。さらに、OpenAIは「政府と協力してそれを防止するために取り組んでいる」と付け加えた。 上院議員たちは、チャットGPTや類似型がもたらす具体的な脅威についてオルトマンに質問した。ミズーリ州のジョシュ・ホーリーは、その技術が選挙に影響を与える可能性があるのか尋ねた。

 「調査結果を予測し、それに基づいて組織や機関が戦略を微調整し、有権者から特定の行動を引き出すための手助けをすることができる型について心配すべきでしょうか?」とホーリーは尋ねた。

 これに対して、オルトマンはAIの説得力が彼の「最も懸念している領域」の一つであると述べ、2024年の米国大統領選挙の前にこの技術を規制するために重要な作業を行う必要があると主張した。

 コネチカット州のリチャード・ブルメンタール上院議員は、AIが労働市場にもたらす潜在的な危険性について指摘し、それを国民が直面する「最大の悪夢」と呼んだ。

 オルトマンは、一部の職業が将来的に自動化されて存在しなくなることを認めたが、技術の進歩に伴い新しい仕事も生まれる、とした。



関連記事:AIの方が、気候問題よりも、「喫緊の課題」ーグーグル社の元技術員の発言

 火曜日(5月16日)の審問は、チャットGPTなどのAIプログラムを規制する方法を見つけることを目的とした計画された連続尋問の最初のものだった。昨年末に発表されて以来、このアプリは史上最も急速に成長し、わずか2ヶ月で1億人を超える利用者を獲得した。AIが近い将来に制御を失う可能性があるという懸念の中で、米国の立法者はそれを制御するための措置が早くから開発されるべきだったと強調している。

 「AIのゴッドファーザー」とも称されるジェフリー・ヒントンは、先月、人工知能の出現が気候変動よりも「さらに緊急な」人類への脅威をもたらすと警告した。テスラのCEOであるイーロン・マスクや、アップルの共同創業者であるスティーブ・ウォズニアックを含む他の科学技術業界の指導者たちは、未規制のAI競争の潜在的な影響について警告する公開書簡にも賛同した。彼らはシリコンバレーに対し、6ヶ月間の技術の開発休止を要請した。

専門家は、未来のAIが「核レベルの大惨事」を引き起こすことを恐れている。

<記事原文 寺島先生推薦>
Experts Fear Future AI Could Cause ‘Nuclear-Level Catastrophe’
Asked about the chances of the technology "wiping out humanity," AI pioneer Geoffrey Hinton warned that "it's not inconceivable."
科学技術が「人類を絶滅させる」可能性について問われたAI(人工知能)の先駆者、ジェフリー・ヒントン氏は、「ありえないことではない」と警告した。
筆者:ケニー・スタンシル(Kenny Stancil)
出典:Global Research 2023年4月17日
<記事翻訳 寺島メソッド翻訳グループ> 2023年5月8日

819.jpg


 研究者の4分の3近くが人工知能(AI)が「すぐに革命的な社会変化をもたらす可能性がある」と考えている一方で、36%がAIによる決定が「核規模の大災害を引き起こす可能性がある」と懸念している。

 これらの調査結果は、スタンフォード人間中心人工知能研究所が作成し、今月初めに発表された、急成長する業界を毎年評価する「2023 AI Index 報告」に含まれている。

 その報告書は「これらのAI体系は、質問応答や、10年前には想像もつかなかった文書、画像、コードの生成において能力を発揮し、古今の標準的な芸術の基準を凌駕している」と述べているが、また一方で「しかし、思い違いをしやすく、日常的に偏りがあり、悪意のある目的のために騙されることもあるため、その 導入に伴う複雑な倫理的課題が浮き彫りになっている」とも指摘している。

 アルジャジーラ*が金曜日(4月14日)に報じたように、この分析は、「チャットボット**により自殺が引き起こされた事象から、ウクライナのボロディミル・ゼレンスキー大統領が侵攻するロシア軍に降伏したように見える捏造動画が出現したりする事象など、問題の多い事象が起こっていることを受けてAIの規制を求める声が高まる中」で行われている。
* カタールにある衛星テレビ局
** 会話するロボット


 注目すべきは、この調査が、チャットボットの開発に不可欠なコンピュータ科学の一分野である自然言語処理の専門家327人の意見を測定したのが、OpenAI社のChatGPTが11月に発売されて「テック(技術)界を騒がせた」数ヶ月前の昨年5月から6月にかけてだったことだと、この報道は伝えている。

 つい3週間前、「人工知能の名付け親」とされるジェフリー・ヒントン氏は、CBSニュースのブルック・シルバ・ブラガ氏に、急速に進歩するこの技術の潜在的な影響は、「産業革命、電気、あるいは車輪」に匹敵すると語った。

関連記事:人工知能(AI):文明と人類への脅威?

 この技術が「人類を絶滅させる」可能性について問われたヒントン氏は、「考えられないことではない」と警告した。

 その憂慮すべき可能性は、必ずしもChatGPTのような現在存在するAIという道具にあるのではなく、コンピュータが自らの考えを発展させて行動することを包含する「人工一般知能」(AGI)と呼ばれるものにあるという。

 「つい最近まで、汎用的なAIができるまで20~50年かかると思っていました。」とヒントンはCBSニュースに語った。そして「今は、20年かそれ以下かもしれないと思っています。」とも。

 もっと早く実現する可能性があるかとシルバ・ブラガに詰め寄られたヒントンは、5年以内にAGIが到来する可能性を排除しないと認めた。数年前なら「まさか」と言っていたときからは大きな変化であった。

 「それをどう制御するか、しっかり考えなければならない」とヒントンは語った。それが可能かどうか尋ねられたヒントン氏は、「まだそこまで行っていないのでわからないが、やってみることはできる」と答えた。

 こう考える AI 開拓者は一人ではない。昨年行われたコンピュータ科学者の調査によると、57%が 「最近の進歩はAGI(人工一般知能)に向かっている」と答え、58%が「AGIは重要な関心事である」と同意してる。

 2月、OpenAI 社CEOのサム・アルトマンは、同社のブログ記事でこう書いている:「危険性は並大抵のものではない可能性があります。調整不良の超知能AGIは、世界に悲痛な害をもたらすかもしれない」。

 2週間前に発表された公開書簡には、OpenAI社の最新チャットボット「GPT-4」の水準を超えるAI体系の訓練を6ヶ月間停止するよう求める25,000人以上が署名しているが、Altman社はその中には含まれていない。

 「強力なAI体系は、その体系に良い効果があり、その危険性が管理可能であることが確信されてから開発されるべきです」と、この書簡は述べている。

 フィナンシャル・タイムズ紙は、一時停止を求める書簡に署名したテルサ社とTwitter社の代表取締役イーロン・マスクが、「OpenAIに対抗するために新しい人工知能開発の新規事業を立ち上げる計画を進めている」と金曜日に報じた

 AGI(人工一般知能)について、ヒントン氏は次のように述べている:「この1、2年で実現するわけではないにせよ、人々が今、そうした問題について心配するのは非常に合理的なことです。人々はそれらの問題について考えるべきです」。"

 AGI はまだ数年先の話かもしれないが、既存のAIという道具―嘘を吐くチャットボット、偽の動画を生成する顔交換アプリ、詐欺を働くクローン音声など―は、誤った情報の拡散を加速させる準備が整っているという懸念がすでに高まっている。

 スタンフォード大学の報告書に掲載された2022年のイプソス社(市場調査会社)による一般市民を対象とした世論調査によると、米国の人々はAIに対して特に警戒心を抱いており、「AIを使った製品や事業には欠点よりも利点がある」と答えた人はわずか35%であるのに対し、中国では78%、サウジでは76%、インドでは71%に達している。

 AI 体系の「説明責任の仕組み」に対する「規制当局の関心が高まる」中、バイデン政権は今週、「AI体系が合法的、効果的、倫理的、安全、その他信頼できる」ことを保証するために実施可能な措置について一般からの意見を求めていると発表した

 オンラインニュース・アクシオスは木曜日(4月13日)、上院院内総務のチャック・シューマー(民主党)が 「人工知能技術を規制するための法案に向けた初期の段階を踏んでいる」と報じた
*
筆者ケニー・スタンシルは、Common Dreamsの専属執筆者である。

ロシアの会社がチャットGPTの対抗機種を明らかに

<記事原文 寺島先生推薦>

Russian company unveils ChatGPT competitor
The new AI tool is geared towards business and government projects, Sistemma has said

新しいAIの道具は、事業や政府の取り組みに向けたものであると、システマ社は述べている。

出典:RT

2023年3月26日

<記事翻訳 寺島メソッド翻訳グループ>

2023年4月29日


© Getty Images / MF3d

 モスクワに拠点を置くシステマ社は、OpenAIのChatGPTの対抗馬として、すべて国内サーバーで、ロシア語で動作する独自のものを作成した。この取り組みは、日曜日(3月26日)に自社の公式サイトで公開された。

 このAIはシステマGPT(Generative Pre-trained Transformer:生成可能な事前学習済み変換器)と呼ばれ、スタンフォード大学の研究とともに、同社独自の開発に基づいている。このチャットボット*(会話を自動的に行えるプログラム)は、ロシアの企業や政府機関を対象としている。
* 「チャット(おしゃべり)+ロボット」からの造語

 システマ社のAIは、高品質の文章を書くことができ、「百科事典のような知識」を持っていると、同社は述べている。また、このチャットボットは、「ソフト指南書の作成、随筆の作成、プログラミングコード、履歴書の作成、あるいは著名人になり切った会話を支援することができる」としている。瞬時に情報を見つけ、分析し、顧客や地域の状況に合わせながら、開発戦略や事業計画を作成することができる。




関連記事:チャットGPTの利用者の個人情報が、バグ(不具合)により流出


 このチャットボットは現在、作業中のベータ版で、一般利用者による公募試験は6月に予定されている。また、2023年に予定されている、画像や動画を編集できるAIの開発にも取り組んでいる。

  AIチャットボットが一躍脚光を浴びたのは、2022年11月にOpenAIが開発した米国製の「チャットGPT」が登場した時だった。その後、同製品は1億人の利用者を獲得し、最も早く利用者を集めたアプリという記録を打ち立てた。このAIは、法学部や医学部の試験に合格するほど賢い。ロシアの学生がChatGPTを使って学位論文に見事合格した。

 多くの企業が自社のAI計画に投資を始めている。GoogleとMicrosoftは今月初め、自社のチャットボットを公開した。テスラ(Tesla)社とSpaceX社の代表取締役であるイーロン・マスクも、同様のAIを自社で開発しようとしていると伝えられている。

 サーバー上の安全の専門家のM.H.ホマエイは2月、この種のAIは「機密情報と評判を守るために組織が注意しなければならない安全性を脅かすいくつかの危険」をももたらすと書いている。チャットボットの有効性は、顧客が貴重な情報を与えてくれるかどうかにかかっており、情報漏洩の危険性がある。

 OpenAIは日曜日(3月26日)に、バグのため、利用者の個人情報や支払い情報の一部が、一時的にオンライン上に表示されることがあること明らかにした。

AIは3億人の労働者の代替になるかもしれない—ゴールドマン・サックス

<記事原文 寺島先生推薦>

AI could replace 300 million workers – Goldman Sachs
Two-thirds of jobs in the US and Europe are vulnerable to some degree of Artificial Intelligence automation, a report has claimed

欧米の3分の2の仕事は、程度の差こそあれ、人工知能による自動化の影響を受けやすいとする報告書が発表された。

出典:RT

2023年3月29日

<記事原文 寺島メソッド翻訳グループ>

2023年4月26日

469-1.jpg

© Getty Images/Colin Anderson Productions pty ltd


 人工知能(AI)がその潜在能力を発揮すれば、労働市場に「大きな混乱」をもたらし、世界中の数百万人の雇用を危うくする可能性があると、ゴールドマン・サックスは主張している。

 ChatGPTのような生成型AIは、投資銀行であるゴールドマン・サックスが日曜日(3月26日)に発表した報告書の推定によると、世界中で最大3億人の常勤勤務(フルタイム)の仕事を置き換える可能性があるとのことだ。新しい素材を独立して作り出すことができるこの技術は、「潜在的に大きなマクロ経済効果を持つ大きな進歩」を意味するとゴールドマン・サックスは主張した。

 欧米ではおよそ3分の2の仕事が「程度の差こそあれAIの自動化」にさらされており、生成型AIは現在の仕事の4分の1を代替するものとして利用される可能性がある。

 ゴールドマン・サックスは、「生成型AIの可能性には大きな不確実性があるものの、人間が作成した出力と見分けがつかないほどの内容を生成し、人間と機械の間の意思疎通の障壁を取り除く能力は、潜在的に多大なマクロ経済効果をもたらす大きな進歩を映し出している」と述べている。

469-2.jpg

関連記事:中国に明るい経済見通しが発表される


 同時に、大半の産業は 「部分的な自動化にさらされる」だけであり、「AIに取って代わられるのではなく、補完される」 可能性が高いとしている。米国では約7%の職種がAIに取って代わられる可能性があり、63%は革新的な技術によって補完され、30%は影響を受けないと試算されている。

 ゴールドマン・サックスはまた、歴史的に自動化によって失われた職は、新しい仕事や職業の創出によって相殺され、製品やサービスの価値を高めるとした。

 「大幅な人件費削減、新規雇用の創出、そして代替されない労働者の生産性向上が重なり、経済成長率を大幅に引き上げる生産性上昇の可能性がある」と報告書は述べている。

 ゴールドマン・サックスによると、AIの普及により、最終的に世界の年間GDPは7%増加するとのことだ。

イタリア、チャットGPTを禁止

<記事原文 寺島先生推薦>

Italy bans ChatGPT
The country's data protection authority has demanded that the chatbot’s creator OpenAI take action or face hefty fines

イタリアのデータ保護当局は、このチャットボットの制作者であるOpenAIに対して、対策を講じなければ多額の罰金を課すよう要求している。

出典:RT

2023年3月31日

<記事原文 寺島メソッド翻訳グループ>

2023年4月26日

466-1.jpg

OpenAI「ChatGPT」アプリのウェルカムスクリーン © Getty Images / Leon Neal


 イタリアのデータ保護監視機関は、プライバシー侵害の疑いがあるとして、OpenAIのチャットボット「ChatGPT」へのアクセスを禁止した。この決定は、3月20日にデータ侵害が発生し、利用者の会話や支払い情報が流出したことを受けて下されたもの。

 2022年11月にサービスを開始したChatGPTは、さまざまな形態や言語で書き、詩を作り、コンピュータコードまで書けることで人気を博している。

 しかし、イタリア個人データ保護庁は、OpenAIによってデータが収集される利用者に対して情報通知を行わなかったとして、このチャットボットを批判した。また、同庁は、プラットフォームを運営するアルゴリズムの「訓練」を目的とした個人データの収集と大量保存を正当化する「法的根拠の欠如」を問題視している。

 このチャットボットは13歳以上を対象としているが、イタリア当局は、OpenAIが利用者の年齢を確認するためのフィルターを設置していないことについても非難している。「絶対に発達段階に合っていない」回答を未成年者に提示することにつながる、としている。

 同庁は現在、OpenAIに対し、この状況を改善するために「実施した措置を20日以内に連絡する」こと、さもなくば、全世界の年間売上高の4%を上限とする罰金に直面することになる、と伝えている。チャットボットを停止し、OpenAIを介したイタリア人ユ利用者のデータ処理を一時的に制限する決定は、「即時発効」したとイタリア個人データ保護庁は付け加えている。

466-2.jpeg

関連記事:マスク、AIの一時停止を要求

 一方、テスラCEOのイーロン・マスクやアップル共同創業者のスティーブ・ウォズニアックなど、1,100人以上のAI研究者や著名な技術指導者が、「巨大AI実験」の6ヶ月間の一時停止を要求する公開書簡に署名している。

 署名者たちは、「人間と競合する知能を持つAI体系は、社会と人類に重大な危険性をもたらす可能性がある」と主張し、急速に進歩する技術は、「相応の注意と必要な資源(リソース)をもって計画・管理されるべきである」としている。同団体は、「誰も(その作成者でさえも)理解できず、予測できず、確実に制御できない、さらに強力な電子頭脳を開発・展開する制御不能な競争」を許すことに強く警鐘を鳴らしている。

 AI開発者が自らを律することができないのであれば、政府が介入し、暴走する統治体系を抑制することができる規制機関を設立し、安全性の研究に資金を提供し、超知能体系が人間の仕事を引き継ぐようになったときの経済的打撃を和らげる必要があると、書簡は述べている。

巨大なAI(人工知能)実験は一時停止せよ:「生命の未来」研究所からの公開書簡

<記事原文 寺島先生推薦>

Pause Giant AI Experiments: An Open Letter - Future of Life Institute

我々は、すべてのAI研究所に対し、GPT-4より強力なAI体系(システム)の訓練を少なくとも6ヶ月間、直ちに一時停止することを求める。

出典:「生命の未来」研究所 (Future of Life Institute)   

2023年3月22日

<記事翻訳 寺島メソッド翻訳グループ>

2023年4月26日

訳註:生命の未来研究所(FLI)は、人類が直面する世界的な破局的リスクと存亡の危機、特に高度な人工知能(AI)による存亡の危機を軽減することを目的とした非営利団体。2014年3月設立。設立者には、マサチューセッツ工科大学(MIT)の宇宙学者マックス・テグマークやスカイプの共同設立者ジャーン・タリンなどがおり、アドバイザーには起業家のイーロン・マスクがいる。所在地は米国マサーチューセッツ州ケンブリッジ。(英語版ウイッキペディア)

 人間並みの知能を持つAI体系は、社会と人類に重大な危険性をもたらす可能性があることは、広範な研究で示され、複数の最高水準のAI研究所が認めている。広く支持されている「アシロマ会議の原則」にあるように、高度なAI体系は地球上の生命の歴史に大きな変化をもたらす可能性があり、相応の配慮と資金をもって計画・管理されるべきものである。しかし、残念ながら、このような計画や管理は行われていない。ここ数カ月、AI研究所は、誰も(その作成者でさえも)理解できず、予測できず、確実に制御できない、より強力なデジタル方式の知力を開発・展開するための制御不能な競争に陥っている。

 現代のAI体系は、一般的な仕事において人間並みの能力を発揮するようになりつつあるので、私たちは自問自答しなければならない。つまり、私たちは機械に私たちの情報チャンネル(伝送路)にプロパガンダや真実でないもので溢れさせるべきなのか? 充実した仕事も含めて、すべての仕事を自動化すべきなのか? 私たちは、やがて私たちよりも数が多く、賢く、未発達で、私たちに取って代わるかもしれない非人間的な精神を開発すべきなのか? 私たちは、文明の制御を失う危険性を冒すべきなのか? このような決定を、選挙で選ばれたわけでもない技術指導者に委ねてはならない。強力なAI体系は、その効果が肯定的であり、危険性が管理可能であると確信した場合にのみ開発されるべきだ。この確実性は十分に証明されなければならず、その体系の潜在的な影響の大きさに応じて増大する。Open AIの人工一般知能に関する最近の声明では、「ある時点で、将来の体系の訓練を開始する前に独立した審査を受けること、そして最も進んだ取り組みでは、新しいモデルの作成に使用する計算機の成長速度を制限することに合意することが重要になるかもしれない」と述べている。私たちは同意する。そのポイントは今だ。

 したがって、我々はすべてのAI研究所に対して、GPT-4よりも強力なAI体系の訓練を、少なくとも6ヶ月間、直ちに一時停止することを求める。この一時停止は、公開され、検証可能であり、すべての主要な関係者を含むものでなければならない。このような一時停止が迅速に実施できない場合は、政府が介入して一時停止を実施する必要がある。

 AI研究所と独立した専門家は、この休止期間を利用して、独立した外部の専門家によって厳格に監査・監督される、高度なAIの設計・開発に関する一連の共有安全の実施要項を共同で開発・実施すべきである。これらの実施要項は、それを遵守する駆動装置が合理的疑いの余地なく安全であることを保証するものでなければならない。これは、AI開発全般の休止を意味するものではなく、出現する能力を持つ予測不可能な得体の知れないモデルをますます大きくする危険な競争から単に一歩離れて見ることを意味している。

 AI体系の研究開発は、今日の強力な最先端体系を、より正確で安全、解釈可能、透明、強固、連携、信頼、忠実なものにすることに焦点を再び合わせるべきだ。

 このAI統治体系には少なくとも次のものが含まれるべきだ。すなわち、AIに特化した新しく有能な規制当局、高度な能力を持つAI体系の監視と追跡、大規模な計算能力の共同管理の監視と追跡、本物と模造の区別の手助け、そしてモデルの流出の追跡を手助けするための由来あぶり出し(電子透かし)機能、強固な会計監査と証明書の収益活動協調体制、AI体系による被害に対する法的責任、AI安全技術研究に対する強固な公的資金、AI体系が引き起こす経済的・政治的混乱(特に民主主義の)に対処するための十分に資金のある公共機関が含まれるべきなのだ。

 人類は、AI体系によって豊かな未来を享受できる。強力なAI体系の創造に成功した今、私たちは「AIの夏」を楽しむことができる。この夏、私たちは報酬を受け取り、すべての人々の明確な利益のためにこれらの体系を設計し、社会に適応する機会を与えることができる。社会は、社会に壊滅的な影響を与える可能性のある他の技術に対して一時停止を行ってきた。私たちは、ここでそうすることができる。長いAIの夏を楽しみ、準備不足のまま秋に突入しないようにしよう。

 メディアやその他の場所での質問や議論に応えて、私たちはいくつかのFAQを用意した。こちらでご覧いただける。

 この公開状に加え、私たちは一連の政策提言も発表している。

「地球上のすべての人が死ぬ」 AI 研究の第一人者が警告

<記事原文 寺島先生推薦>

‘Everyone on Earth will die,’ top AI researcher warns — RT World News

人類は、はるかに賢い人工知能との戦いに生き延びる準備ができていない、とエリエゼル・ユドコフスキーは言う。

出典:RT

2023年4月1日

<記事翻訳 寺島メソッド翻訳グループ>

2023年4月9日


映画「ターミネーター2」で使用されたターミネーターロボット "T-800 "の実物大フィギュア。© AFP / 津野義和


 世界中の高度な人工知能システムの開発を停止し、その一時的停止に違反した者を厳しく罰することが、人類を絶滅から救う唯一の方法であると、著名なAI研究者が警告している。

 機械知能研究所(MIRI)の共同創設者であるエリエゼル・ユドコフスキーは、水曜日(3月29日)にタイム誌に意見書を寄稿し、「すべてのAI研究所は、今月初めにOpen AI[アメリカの人口知能研究所]が発表したマルチモーダル(多機能)大規模言語モデルであるGPT-4*より強力なAIシステムの訓練を少なくとも6カ月間直ちに一時停止せよ」と求める請願書**に署名しなかった理由について説明している。
* Generative Pre-trained Transformer 4。幅広い一般知識と問題解決能力があり、画像を読み取り、その内容を説明できる次世代のAI言語モデル。
** 2023年3月22日にネット上で発行された公開書簡のこと。全文は以下で読める。
Pause Giant AI Experiments: An Open Letter - Future of Life Institute


 ユドコフスキーは、イーロン・マスクやアップルのスティーブ・ウォズニアックなどが署名したこの書簡は、AIの急速かつ無秩序な発展がもたらす問題を「解決するにはあまりにも少ない要求」だと主張した。

ユドコフスキーは、「超人的に賢いAIを開発した場合、現在のような状況下では、まさに地球上のすべての人が死ぬことになります」と書いている。




関連記事:マスク、AIの一時停止を要求


 ユドコフスキーは、「私たちのことも、一般的な感覚を持つ生命体のことも気にかけない」コンピュータ・システムとの戦いを生き延びるには、「精密さ、準備、そして新しい科学的洞察」が必要であり、それを人類は現時点では持っておらず、近い将来にもそれを得られそうにないと主張した。

 「十分に知的なAIは、長い間コンピュータの中に閉じこもってはいられないでしょう」と、ユドコフスキーは警告している。彼の説明では、DNAの文字列を実験室にメールしてタンパク質を製造することがすでに可能であることから、AIが「人工生命体を構築したり、ポスト生物学的分子製造に着手して」して世の中に出ていく可能性が高いとのことだ。

 この研究者によると、新しい大規模なAI訓練の無制限かつ世界的な一時的停止を直ちに導入する必要がある、という。「政府や軍を含め、例外は許されない」と彼は強調する。

 そして、このようなAIシステムの訓練に使用できる計算能力の上限を定める国際協定を結ぶべきだと、ユドコフスキーは主張する。

「協定を結んでいない国が一連のグラフィック・プロセッシング・ユニットGPU(画像を表示するために必要な計算を行う半導体装置)を構築しているとの情報が流れた場合には、(AIの開発の)一時的停止が破られることを危惧しなければなりません。それに比べれば、国家間の軍事衝突は小さな懸念材料です。そして、不正行為を行った国のデータセンターを空爆で破壊することをためらうな」と、彼は書いている。

関連記事:Chat GPTの制作者がAIの危険性を警告する

 人工知能の脅威は非常に大きいので、「AIによる(人類)絶滅シナリオを防ぐことが、全面的な核戦争を防ぐことよりも優先されるべきであることを国際外交で明示する必要があります」ともユドコフスキーは述べた。

プロフィール

tmmethod

Author:tmmethod
FC2ブログへようこそ!

検索フォーム
リンク
最新記事
カテゴリ
RSSリンクの表示
ブロとも申請フォーム

この人とブロともになる

月別アーカイブ
最新コメント