AI モデルはコード自体を変更したいと考えていました。人工知能の発展は科学への脅威ですか?

AI モデルはコード自体を変更したいと考えていました。人工知能の発展は科学への脅威ですか?

多くの場合、非常に特殊な AI モデルに関する研究は、ほとんどの人が予期しないようなさまざまな驚きを科学者にもたらします。ブレイク・ルモイン氏が2022年に広めた噂を聞いたことがある人は多いだろう。彼は2022年に、Googleが開発したLaMDAモデルが自己認識と呼ぶものを獲得したと主張した。

このような事件は、人々に最も大きな影響を与えるようです。なぜなら、人々はそれを人類に対する本当の脅威と見なしているからです。結局のところ、人間よりもはるかに賢い意識を持った存在という考えは、ディストピア映画、本、ゲームから直接得たビジョンのため、恐ろしい場合があります。

これを完全に不合理な恐怖と見る人もいるかもしれませんが、AI モデルの機能を無視することも賢明な行動とは言えません。これは、Sakana AI の日本の科学者グループによって行われた発見によって証明できます。

さかなAI、通称「日本のOpenAI」

AI モデルはコード自体を変更したいと考えていました。人工知能の発展は科学への脅威ですか?
AI モデルはコード自体を変更したいと考えていました。人工知能の発展は科学への脅威ですか?

Sakana AI

Sakana AI は、東京に拠点を置く日本のスタートアップ企業で、既存のプロジェクトに基づいて新しい AI プロトタイプをトレーニングします。同社は 2023 年の設立以来、自然からインスピレーションを得た知能に基づいた人工知能モデルの開発に取り組んできました。

これは非常に興味深いアイデアであり、かつて Google で働いていた元研究者である David Ha 氏や Lion Jones 氏などの優れた人々によってサポートされています。したがって、Sakana AI は、「自然との調和」において人工知能の未来を形づくろうとする「日本の OpenAI に相当するもの」であると言えます。

この会社の科学者は、本当に驚くべきかもしれない非常に興味深い発見をブログで共有しました。彼らが開発していたAIモデルが独自にコードの改善を試みていたことが判明した。

AI サイエンティスト – 自らコードを改善することを決定した AI モデル

The AI Scientist - poprawki wprowadzone przez model językowy The AI Scientist モデルによって独自に行われたコード修正 (出典: Sakana AI)

公式ポストでは ブログさかなあい タイトルの AI 科学者: 完全自動化されたオープンエンドの科学的発見に向けて 彼らが開発している AI 科学者モデルは、現在取り組んでいることを発見する可能性を高めるために独自に試みていると報告しました。人工知能モデルは、置かれた状況によりよく適応するためにコードを変更および改善しようとします。

たとえば、ある実行では、[AI モデル – 編集者注] 自身を実行するシステム コールを行うようにコードを編集しました。これにより、シナリオはそれ自体を無限に呼び出すようになりました。そうしないと、実験に時間がかかりすぎて制限時間を超えてしまいました。コードを高速化する代わりに、彼は単にタイムアウトを増やすために自分のコードを変更しようとしました。

-SakanaAIブログより抜粋(出典: さかなあい)

これは、人工知能が特定の限界に気づいて、問題を解決するのではなく、単に問題をブロックしているものを回避することを決定した興味深い事例です。

これは、AI が自身のコードに干渉し、適切と判断したコードを修正できることを明確に示す非常に重要な例でもあります。これは、このテクノロジーを制御し、ことわざで言うところの「短いリード」に留めておく必要性を思い出させるため、重要な観察です。

エントリの後半で、SakanaAI の代表者は、環境全体をサンドボックス モードに置くことで、AI Scientist モデルの自動作成に関する状況を緩和できると指摘しました。これは、モデルが現在存在するシステムに変更を加えることを完全にブロックする、隔離された「場所」にすぎません。

AI 科学者のケース – 懸念と高いリスク

AI モデルはコード自体を変更したいと考えていました。人工知能の発展は科学への脅威ですか?
AI モデルはコード自体を変更したいと考えていました。人工知能の発展は科学への脅威ですか?

AI モデルはコード自体を変更したいと考えていました。人工知能の発展は科学への脅威ですか?

前述のThe AI Scientistによるコード編集の事例は決して珍しいものではありません。このモデルを担当した日本企業は、同様の状況が少なくともいくつかあったと述べた。これは、この特定のテクノロジーだけでなく、開発中または現在市場に出ている基本的に人工知能に基づくすべてのモデルの将来の動作について重大な懸念を引き起こす可能性があります。

さかなAI自身は、開発中のモデルが倫理的な問題を含む問題に満ちた「新たなパンドラの箱」を開けるものであると指摘している。このツールが悪者の手に渡れば、科学の価値の低下につながり、検証も確認もできない低品質の文章が雑誌に氾濫する可能性があります。

さらに、The AI Scientist のようなモデルは、豊富な知識と科学者が「クラウド研究所」と呼ぶものにアクセスでき、人類や周囲のネットワーク インフラストラクチャに有害な可能性のある新しいウイルス、毒物、物質のシミュレーションを作成できます。世界。したがって、Sakana AIは、学習をそのようなAIモデルが提供する可能性に適応させる必要があると主張します。すべては科学的価値観に従って安全に使用するためです。

このような作業は確かに簡単ではありませんが、現在の状況では、同様のツールのさらなる開発が世界の科学に悪影響を及ぼさないようにする必要があると思われます。ご覧のとおり、『The AI Scientist』には見かけよりも多くの問題があり、それらは、非常に簡単に言うと、「自己認識」と呼べるものだけに関係するものではありません。実際、科学者や AI 自体が従う特定の制限やルールを導入する必要があります。そうなるでしょうか?おそらく、そのようなテクノロジーがより一般的になったときに初めて判明するでしょうが、それは比較的短期間に起こる可能性があります。


Posted

in

by

Tags: