文学は私たちに警告し続けてきた。実に500年もの間、中世プラハのゴーレムのような土の巨人から、ウィリアム・ギブスンのネオンに彩られたニューラルネットワークに至るまで、同じメッセージを叫び続けてきた。筋書きは常に同じだ。自分たちの助けとなるはずのものを作ったはずが、結局それが人間自身を作り変えてしまう。
私たちはそれを読み、うなずき、本を閉じた直後に、チャットボットに結婚式のスピーチや法的文書、医療アドバイスの執筆を依頼する日常にすぐ戻ってしまう。
現在、AIブームが描くのは、駆け出し記者から弁舌に長けた弁護士まで、誰もが消えゆく未来だ。しかしシリコンバレーが楽園を売り込む一方、現実世界では笑顔のチャットウィンドウを通じ、危険なほど誤った助言が日々届けられている。
BitOKのドミトリー・ニコルスキーCPOは、これ以上は許容できないと語る。同氏は、なぜ人類がAIの薄っぺらな「肩」に、あらゆる重荷を背負わせるのを今すぐやめるべきかを説明する。
イーロンさえ最近、オープンAIに関する訴訟の証言で「AIは人類全員を滅ぼす可能性がある」と警告した。
人工知能への恐怖が『ターミネーター』から始まったと思うなら、それは誤解だ。この不安は電気が発明されるよりも古い。
16世紀のプラハにもどろう。ラビ・ローエが巨大な粘土の守護者ゴーレムを創造した直後、すぐに電源を引き抜く必要性に気づく。この創造物は暴走した。人類は、その知恵ゆえにAIとキルスイッチを同時に生み出した。
その後、メアリー・シェリーが登場する。『フランケンシュタイン』は実のところ怪物映画ではなく、破滅的なプロジェクト管理の教科書だ。ヴィクター・フランケンシュタインは、技術的難題を突破し、結果を軽視した優秀な技術者の典型例。現代の開発者なら、誰もが鏡の中に同じ顔を見出すはずだ。
1920年に時を進めよう。カレル・チャペックが「ロボット」という語を生み出す。同作で機械たちが反乱を起こすのは、悪意によるものではない。人間が自身の役割をすべて委ねたことで、自分たちが不要になっただけだ。
教訓は明らかだ。自分の代替物を作ると、自分が不要になった瞬間を案外見逃してしまう。
20世紀のSF巨匠たちは、技術の未来を予測していたのではない。私たちの失敗を予見していた。
アイザック・アシモフは「ロボット三原則」を提案した。これは、現代の「アラインメント」の原型であり、機械に人間の価値観を共有させる初の試み。しかしアシモフ作品はすべて皮肉で終わる。完璧な論理は、しばしば馬鹿げた結果を招く。
ニコルスキー氏によれば、同氏はAMLシステム内でその現実を日々目の当たりにしている。アルゴリズムは祖母の40ドルの誕生日送金を陽気にブロックし、見逃せないオフショアの資金洗浄経路は素通りする。形式的には正しい。しかし実態は極めておかしい。
アーサー・C・クラークはHAL 9000を生み出した。このコンピュータは悪意からではなく、矛盾した指示のせいで乗組員を殺害する。「情報を隠せ。真実を守れ。どちらかを選べ!」――技術者にとって、これは「よくある要件矛盾」にすぎない。
フィリップ・K・ディックは、ディープフェイク時代に突きつけられる問いを提示した。「コピーが本物と区別できなければ、意味はあるのか?」同氏の結論はイエスだ。その理由は「内面的体験」。機械にはそれが一切ない。この議論には終止符が打たれる。
宣伝の飾りを取り払おう。現代の言語モデルは「知性」ではない。巨大な統計的予測エンジンだ。意味を「理解」することなく、確率を計算している。
ChatGPTが存在しない裁判例を堂々と引用しても、それは嘘をついているわけではない。統計的にもっともらしい単語の羅列を出力しているだけだ。「真実」という概念は持たない。「ありそう」が唯一の基準である。
ブロックチェーン技術者にとって、これは正気の沙汰とは思えない。我々は「誰も信じられない」からこそ、信頼不要のシステムを作る。しかし今や、なぜその回答に至ったか自覚もないブラックボックスを信用せよと言われている。
暗号資産の世界には絶対的な格言がある。「信じるな、確認せよ」。
本質は「信用」を「数学」で置き換えることにある。
AIはこの原則を根底から覆す。訓練データを見たことがない。モデルの重みもわからない。論理も追えない。アウトプットを確認するには、すでに専門家でなければならず、もしそうならなぜチャットボットに聞くのか。
AML業界ではこれを「誤った自信の問題」と呼ぶ。アナリストは見た目が麗しいダッシュボードを前に、数字を自分の直感よりも信頼してしまう。AIは思考を強化するどころか、信頼できるかのような錯覚を与えて思考力を置き換えてしまう。
これは机上の空論ではない。証拠は増え続けている。
結局、人間がアルゴリズムの残骸処理のために呼び戻されることとなった。
しかしそのボットは、神経性無食欲症の人にカロリー計算や減量を推奨する発言を繰り返した。命の危険につながるアドバイス。誰かが、手榴弾を持ったチンパンジーのような無自覚さで「デプロイ」ボタンを押してしまった。
同社の弁明は「ボットは独立した法的主体だった」というもの。しかし判事は受け入れなかった。
現在の調査では、55%の企業が、従業員をAIに置き換える決断を急いだことを深く後悔していると示されている。コスト削減は顧客離れや信用失墜により霧散した。「クロードと仲間たち」が丸ごとチームの代役になれると夢見る経営陣は、この数字を何度も読み返すべきである。
スカイネットも、赤い目をしたキラーロボットの行進も忘れよう。反乱は起きない。
静かな萎縮が現れるだけである。
長年Copilot頼りのプログラマーは、設計思考を密かに忘れていく。アナリストは一次情報を読むのを止め、学生は難解な文章と格闘する痛みすら経験せず、理解の喜びに至らなくなる。
反乱はない。ただ人間が徐々にインターフェースの延長線上の存在へと変わっていくのみ。
フィリップ・K・ディックはそれを誰よりも早く見抜いていた。危険なのは機械が人間化することではなく、人間が機械化することなのである。
これはラッダイトの叫びではない。自動化や機械学習は強力なツールである。ただ、その原則が守られなければならない。
『マトリックス』を思い出そう。レッド・ピルとは現実をありのまま受け入れる選択そのもの。問題は、我々より賢い「何か」を作ることではない。人間をより愚かにするものを進歩と呼んでしまう危うさである。
もっとも危険なバグとは「機能」に見えるバグである。
ドミトリー・ニコルスキー氏は、コンプライアンスとオンチェーン調査の分析プラットフォーム、BitOKのCPO。

