目次【開く】
タイトル:Inside OpenAI, a rift between billionaires and altruistic researchers unravelled over the future of artificial intelligence
OpenAIの内部では、人工知能の未来をめぐって億万長者と利他的な研究者の間に亀裂が生じた
この1週間、シリコンバレー有数のハイテク企業で、人工知能の未来をめぐって混沌とした戦いが繰り広げられた。
一方は、数十億ドル規模の投資家に支えられた世界最先端のジェネレーティブAIの鍵を握る男たちである。
もう一方は、規制によるハンドブレーキがないまま業界が未来へと加速することを許せば、これらのシステムが人類に終焉をもたらすのではないかと危惧する一握りの起業家たちである。
テック業界は、ChatGPTを開発したOpenAIの取締役会がCEOを突然解任し、その6日後にCEOを復帰させ、取締役会の半数を解任したのを見ていた。
この騒動の核心は、サム・アルトマン最高経営責任者(CEO)が率いるビジネスの収益側と、同社の非営利理事会との間の文化的分裂にあったようだ。
スタンフォード大学中退の億万長者で、19歳で最初のテック企業を設立したアルトマンは、ChatGPTの大成功を含むOpenAIの拡大を監督していた。
しかし、会社内部の多くの証言によると、安全志向の取締役会は、CEOが危険な道を歩んでいることを懸念していた。
展開されたドラマは、シリコンバレーにおけるビジネスと公共の利益の間の避けられない摩擦を露呈し、AI競争におけるコーポレート・ガバナンスと倫理的規制について疑問を投げかけている。
利他的なAIスタートアップはいかにしてハイテク大企業となったのか?
その頭脳であるボットが有名になる前、OpenAIは「人類の利益のために安全な人工知能を構築する」ことを目的とした非営利の研究センターとしてスタートした。
アルトマンをはじめ、イーロン・マスクや一連のベンチャーキャピタルを含む投資家たちは当初、「財政的な義務から解放され」、この新技術の探求とその成果の世界との共有のみに集中できるプロジェクトの名目で10億米ドルを拠出した。
このプロジェクトは、競争力のある業界にとって協力的でエキサイティングな前進であると、多くの人が考えていた。
2019年までに、OpenAIはAIモデルの実行とテスト、そして再度のテストに必要な高価なコンピューティングパワーのための資金を必要としていた。
そこで、営利と非営利のハイブリッドモデルのもと、研究組織の商業部門が設立され、サム・アルトマンがCEOに就任した。
当時、OpenAIの発表によれば、「我々が知る限り、適切なバランスを取る既存の法的構造はない」ため、創設者たちは非営利の理事会が管理する「上限付き利益」会社を設立した。
株主は一定の金額しか得ることができず、それを超える価値はすべてOpenAIのマシンに再投資されることが、白黒で明記されていた。
「私たちは、より多くの資金を調達できるような仕組みを作ろうとしました。同時に、OpenAIの当初のミッションの精神と文言を可能な限り正式に守ることができるようにしました」と、同社の共同設立者の一人であるイリヤ・スーツキーヴァーは、2019年にVOXに語った。
この物語で、イリヤ・サツケバーは忘れられない名前になった。
2019年から、アルトマンはジェネレーティブAIの顔となった。OpenAIのミッションは、会社の文書、インタビュー、ステージ、そしてアルトマン自身が世界中を飛び回り、ジェネレーティブAIがいつか持つであろう力について警告を発しながら、繰り返し言及されている。
彼は警鐘を鳴らすと同時に、OpenAIの商業的価値を高めたのだ。
プリンストン大学でAI倫理の講師を務めるスティーブン・ケルツ氏は今週、ABCの取材に対し、「彼らがやったことは、非常に素晴らしい技術を、最初からその周囲に多くのドラマを作り出したことだと思います」と語った。
GPT-3(ChatGPT)がリリースされ、その人気が広まったことで、OpenAIの価値は急騰し、従業員が株式を売却しようとしたため、ピーク時には900億ドル近くに達したと推定される。
しかし、この非常に価値のある組織は、最終的には、金儲けではなく、世の中のためになるテクノロジーを作るという本来の使命を守るために集められた取締役会によってコントロールされていた。
そしてその取締役会には、次に起こるサクセション的ドラマの中心人物とされるオーストラリア人科学者がいた。
亀裂が生じ、取締役会がCEOに牙をむく
おそらく、利他主義者、億万長者、大富豪の利他主義者たちによって織り成された組織の布地は、常にほころびるべくしてほころんだのだろう。しかし、それがたった1週間の間に起こるとは誰も予想していなかったかもしれない。
先週金曜日の午後、OpenAIの取締役会はアルトマンをCEOから解任するという衝撃的な発表を行った。
アルトマンは、この声明が公表されるわずか数時間前に、グーグルミートを通じてそのことを知ったのだという。
共同設立者であるグレッグ・ブロックマンも取締役会から外されたが、社長としては留任を許された。しかし、彼はすぐに自分も去ることを発表し、彼とアルトマンは完全に不意打ちを食らったと付け加えた。
主要な意思決定者は、チーフ・サイエンティストで共同設立者のイリヤ・スーツケバーと、3人の非従業員取締役だった:アダム・ダンジェロ、ヘレン・トナー、ターシャ・マッコーリーである。
トナーはオーストラリア人であり、メルボルン大学で学んだ後、新興テクノロジーの安全な利用に関するキャリアを築いた。彼女がOpenAIに入社したのはそのためで、その後、そのロックスターの創業者と対立することになったと伝えられている。
アルトマンとブロックマンがいなくなって間もなく、3人の上級研究者が後を追い、やがて会社は大きな問題に直面することになった。
週末には、ますます多くの従業員が辞めると脅し、主要投資家はOpenAIの取締役会に決定を覆すよう迫った。アルトマンは日曜日にビジターパスを持ってオフィスに戻った。
マイクロソフトのサティア・ナデラCEOは、同社がOpenAIに130億USドルを出資しており、アルトマンを復帰させるための話し合いに参加したと言われている。
ナデラCEOは今週初め、米国のテクノロジー・ジャーナリストでコメンテーターのカーラ・スウィッシャー(Kara Swisher)氏に対し、主要投資家であるにもかかわらず、アルトマンを解任するという当初の決定について相談を受けていないと語った。
彼女のポッドキャストで、スウィッシャーはナデラに尋ねた:「彼らはあなたに相談しなかったのですね?
「つまり、私たちはサムと経営陣、そして営利団体と一緒に仕事をすることがほとんどで、この団体のガバナンスを担っている非営利団体の理事会とは何の関係もありませんでした。その通りです」と彼は言った。
日曜日までに、アルトマンを呼び戻す契約は成立せず、OpenAIはTwitchの創設者であるエメット・シアーを新しい暫定CEOに指名した。
シアー氏は就任を発表するツイートの中で、アルトマンを追放するに至ったプロセスを調査するため、独立調査員を雇うことを約束した。
翌日、ナデラはアルトマンとブロックマンがマイクロソフトの新しい先端研究チームに加わることを発表した。
OpenAIは危機に瀕しており、数百人の従業員が辞め、かつてのリーダーに加わると脅していた。ナデラは、マイクロソフトに彼らのためのスペースがあることを明らかにした。
「サムが何をするにしても、間違いなく我々と一緒にやることを確認したい」と彼はスウィッシャーに語った。
「私たちが望んでいないのは、チームが分裂してしまうことです。そして、ミッションが危険にさらされることだ。
スツケバーを覚えているか?
彼はアルトマンの追放に票を投じた唯一の従業員理事であり、その決定を後悔しているとツイートした。取締役退任を求める嘆願書が出回り始めた。
2日もしないうちに、彼らの要求は満たされた。
水曜日の早朝、OpenAIはアルトマンが正式にCEOに戻り、取締役会の大半がいなくなったと発表した。
McCauleyとTonerが去り、代わりに2人の新メンバーが加わった:ブレット・テイラーとラリー・サマーズである。
サッツケバーも取締役から外されたが、チーフ・サイエンティストの職は継続した。彼は共同設立者たちの復帰に何とも言えない喜びを表明し、追放された2人も同様に「コーディングに戻る」ことに興奮していた。
この役職を引き受けてから72時間も経たないうちに、シアーはアルトマンの復帰を大喜びしていると発表した。
取締役会を二分したAIをめぐる倫理的分裂
今週の混沌とした動きの背景について、Open AIでは誰も詳細を明らかにしていないが、手がかりはたくさんある。
何人かのオブザーバーは、アルトマンが率いるビジネスの収益面と、公共の安全を第一に考えるという取締役会の利他的な使命の間にある文化的なミスマッチを指摘している。
この分裂の最も興味深い例は、木曜日にロイター通信が秘密書簡とQ*と呼ばれるOpenAIプロジェクトに関する報道を行ったことで明らかになった。
ロイター通信によると、アルトマンの更迭に先立ち、数名のスタッフ研究者が、人類を脅かしかねない強力な発見があると警告する手紙を取締役会に送っていたという。
その発見とは、プロジェクトQ*、あるいはQスターと呼ばれるものだと考えられている。
OpenAIの一部の研究者は、Q*は人工知能(AGI)として知られるものを探求するスタートアップのブレークスルーになりうると考えているという。
オープンAIはAGIを、経済的に価値のあるタスクのほとんどにおいて人間を凌駕する自律的なシステムと定義している。
人の情報筋がロイターに語ったところによると、アルトマンが解雇されるに至ったのは、プロジェクトQに関する懸念を表明した書簡が、取締役会に対する不満の長いリストのなかの1つの要因であった。
また、そのリストには、技術の進歩を十分に理解する前に商業化することへの懸念も含まれていた。
ケルツ教授はABCの取材に対し、「これは、AIの安全性の未来に関する2つの部門をめぐる大規模な争いです」と語った。
私の分析では、”ゴーファスト “と “ゴースロー “だ。アルトマンはゴーファストチームだ。
しかし、”ゴーファスト “チームは、このような製品を世に送り出したら、基本的に人々が自分でレッドチームするのが早ければ早いほど良いと考えている。
「だから、彼らは安全な製品を出していると考えているが、それを壊そうとする人が出てくることを期待している。
チーム・ゴースローは、”いや、OpenAIの内部で、壊される可能性のあるガードレールのある製品を決して出さないように、安全性の研究をしよう “という感じだ
この分裂は、展開する混乱に関する報道の多くにおいて、匿名の会社内部関係者のコメントとして反映されているようだ。
ニューヨーク・タイムズ』紙によると、アルトマンが解任された金曜日の午後、会社の会議に出席していたある人物は、解任は「人工知能を人類に有益なものにするというOpenAIの使命を守るために必要なこと」だとサッツケバーが主張したと語っている。
Financial Times紙はまた、アルトマンがマイクロチップの新会社を設立するために投資家から1000億米ドルを集めようとしていることについても、社内の懸念を報じている。
取締役会は、リーダー交代を発表する声明の中で、アルトマンが「一貫して率直でなかった」と主張した。
更迭される前日、アルトマンはAPECサミットでジェネレーティブAIの変革能力について説いていた。
「ここ2、3週間のことですが、私たちが……無知のベールを押し戻し、発見のフロンティアを前進させるとき、私はその場にいることができました」と、彼はグーグルやメタの幹部とのパネルに耳を傾ける聴衆に語った。
同じディスカッションの中で、彼はさらに、厳しい規制はまだ必要ないと述べた。
「現在のモデルで問題ないと人々に説明するのは難しいメッセージです」と彼は言った。
「ここでは厳しい規制は必要ない。おそらく、今後数世代は必要ないだろう。
「しかし、ある時点で、そのモデルが企業全体、そして国全体、さらには世界全体に匹敵するようなことができるようになれば、そのようなモデルに対する世界的な集団監督や集団的な意思決定が必要になるかもしれない。
この発言は、規制に関するアルトマンのこれまでの公式発言や、OpenAIの理事会のメンバーの発言とは一見対立するような調子である。
スウィッシャーは、アルトマンとトナーとの間に重要な緊張関係があると報じている。トナーは、理事会では安全性とAIの「長期的なリスクに関する深い考察」に重点を置いていた。
トナーは最近、AI政策に関する論文を共著で発表しており、そこでは民間企業によるシグナリングについて論じている。
今週発表された『フィナンシャル・タイムズ』紙の記事には、先月のトナー氏とのインタビューから、AI幹部が自らの運命を決めるという倫理的な難問についてのコメントが掲載されている。
「AI企業の幹部は)ほとんどの場合、リスクを真剣に受け止め、正しいことをしたいと思っていると思います。同時に、これらのシステムを構築しているのは明らかに彼らだ。彼らこそが潜在的に利益を得る立場にあるのです。
「だから、企業の取締役会だけでなく、規制当局や一般市民による外部の監視があることを確認することが本当に重要だと思います。
「たとえ彼らの心が正しいところにあったとしても、彼らが正しいことをすることを保証する第一の方法として、それに頼るべきではありません」。
これは、シリコンバレーにおける効果的な利他主義の終焉を意味するのだろうか?
アルトマンとその友人たちが再び指揮を執るようになったことで、シリコンバレーの話題は、この瞬間がかつて大切にしてきたフィランソロピー哲学からの転換を意味するのかどうかに移っている。
理事会のメンバー間の分裂は、効果的利他主義として知られる社会運動のどちらかの側に属する人々によるものだという見方が多い。
この運動は広範なものだが、その核心は、地域社会と産業界の総力を結集し、革新的な解決策を模索することが、世界的な問題に対処する最善の方法であるというものである。
この運動の重要な一派は、人工知能を野放しにしておくと人類に存亡の危機をもたらすと考えている。
アルトマンの解任に票を投じた理事のうち、少なくとも2人はこの哲学を共有しているようだ。
トナーは学生時代にこの運動に出会って以来、効果的利他主義に賛同するいくつかの組織で働いており、マコーリーは現在、エフェクティブ・ベンチャーズと呼ばれる効果的利他主義の慈善団体の理事を務めている。
サッツケバーは敬虔な信者とは見られていないが、『ウォール・ストリート・ジャーナル』紙は、彼とアルトマンが「効果的な利他主義への懸念に映る安全性の問題で衝突した」と報じた。
ほぼ72時間の暫定CEOであるシアーは、ハリー・ポッターのファンフィクションの中で名前が挙げられている。
アルトマンは過去に利他主義を批判し、善意の個人からなる「信じられないほど欠陥のある運動」だと述べている。
失敗したクーデター」と評される事態の後では、OpenAIのホールをさまよう有能な利他主義者はほとんど残っていないかもしれない。
ウォール・ストリート・ジャーナル』紙の哲学論争を検証する記者たちに対する声明の中で、OpenAIは、効果的な利他主義は事業の中核をなす価値観のひとつではないと述べた。
この数カ月でテック業界のヘッドラインを独占したもう一人のサム、失脚した暗号王サム・バンクマン・フリード(Sam Bankman-Fried)のふざけた行動のおかげで、すでに大きな風評被害を被っているこの運動にとって、これは棺桶に突き刺さる最後の釘として描かれている。
今年3月に発表されたTIMEの独占記事によると、この運動のリーダーたちは、自分たちの広告塔の一人が米国史上最大級の金融詐欺で有罪判決を受けるずっと前から、非倫理的で過失のある行為を行っていると繰り返し警告を受けていたという。
情報筋がTIMEに語ったところによると、これらの指導者たちはバンクマン・フリードに関する警告を無視し、効果的な利他主義の大義のために数千万ドルを受け取ったという。
今週以降、利他主義の最も著名な支援者の一人であるスカイプ共同設立者のジャーン・タリンは、それがテック企業にとって実行可能な哲学であるかどうか、公然と疑問を呈している。
「OpenAIのガバナンスの危機は、自発的なEAを動機とするガバナンス・スキームの脆弱性を浮き彫りにしている」と彼はSemaforに語った。
現状への回帰
個人的な哲学はさておき、先週の出来事は、人工知能、特にジェネレーティブAIがどのように規制されるべきかをめぐる、より広範な議論を浮き彫りにした。
アルトマンは長い間、ジェネレーティブAIのパワーと、こうした技術を開発する企業(自社を含む)がそれを悪用できないようにするための監視の必要性の両方を提唱してきた。
同時に、6月に発表された『TIME』の調査によると、オープンAIは欧州連合(EU)のAI法の重要な要素を水増しするよう、当局に内々に働きかけを行っていた。
アルトマンは今年初め、議会の公聴会に出席し、その傍らで非公開の夕食会を開いたが、その際、ハイテク企業の幹部が自身の業界を規制するよう公に主張する一方で、その法律を最終的に決定することになる政策立案者と非公開で会っているという皮肉を指摘した人々から批判を浴びた。
透明性に関するこの疑問は、国際標準化機構(ISO)の責任ある、安全で信頼できるAI開発のためのベストプラクティスガイドラインの重要な要素を強調している。
データ倫理と責任あるAIの世界的な専門家であるオーレリー・ジャケットは、ABCの取材に対し、「透明性は、AIだけでなくあらゆる製品において、説明責任を果たすための重要な要件です」と述べた。
「個人的な見解ですが、AIで起きていることは、実際に既存のリスクを増幅させています。AIは既存のプロセスに組み込むツールであり、それゆえに(その空間にすでに存在する)リスクを増幅させるのです」。
ISOのAI委員会でオーストラリア代表団を率いるジャケ氏は、OpenAIやマイクロソフトのようなプレーヤーは、将来にわたってこの分野の透明性と説明責任を確保する役割を担っているが、結局のところ、今週の出来事によって、それらの基準がどのように策定されるかが変わったわけではないと言う。
「AIの観点からは、どのように責任を持ってそれを行うかについての会話を変えるものではありません」とジャケ氏は言う。
ISOは来年、AI管理基準を発表する予定だが、ベストプラクティスのガイドラインと同様、それをどのように導入するかは各国政府や企業次第だ。
ケトルズ教授の見解では、OpenAIがマイクロソフトに事実上吸収されることなく生き残ったのは良いことだ。
ケトルズ教授は、OpenAIがMyGPTと呼ばれる個人用ボットを開発する際のデータプライバシーに関する重大な懸念や、マイクロソフトが何百万ものAPIを接続し、AIにその使い方を教えるという計画に関する多くのリスクを指摘した。
しかし今週は、シリコンバレーのような場所でいかに資金が力を持ちうるかを示している。
「利益の力を止めることはできない」
翻訳元:
Could an AI experiment called project Q* be the reason for the OpenAI meltdown?