![【ひろゆき】プーチンは絶対に消されない!?例え消されても次のプーチンが現れる可能性があります【切り抜き 論破 ウクライナ ロシア 戦争 hiroyuki きりぬき】](https://i.ytimg.com/vi/7HvITUBi8xo/hqdefault.jpg)
有名な人が、人工知能を搭載したマシンが世界を支配する可能性についてコメントしなければ、1か月は過ぎないようです。イーロン・マスクは、AIシステムは「核兵器よりも潜在的に危険だ」と述べています。しかし、彼だけではなく、スティーブン・ホーキングも懸念しています。「完全な人工知能の開発は人類の終spellをもたらすかもしれません」ホーキング教授はBBCに語った。 「それはそれ自体で離陸し、ますます増加する速度でそれ自体を再設計します。」ビル・ゲイツでさえ心配しています、「私は超知能を心配しているキャンプにいます。この点については、Elon Muskと他の一部の人に同意し、一部の人が心配しない理由を理解していません。」
これらはすべて、強力なAIシステムが意図しない、または場合によっては悲惨な結果をもたらす可能性について懸念を表明しています。 1月に、Elon Muskは、AIを人類にとって有益なものにすることを目的としたグローバルな研究プログラムを実行するために、1000万ドルをFuture of Life Institute(FLI)に寄付しました。
今日、フューチャーオブライフインスティテュートは、世界中の37の研究チームに700万ドルの資金を提供し、社会がAIの恩恵を享受しつつ、地球上の黙示録と終末を回避できることを発表しました。
ターミネーターシナリオの危険性は、それが起こることではなく、将来のAIによって引き起こされる実際の問題から注意をそらすことです。
FLIの創設メンバーの1人で、Skypeのオリジナルバージョンを書いたヤーンタリンは、新しい研究について次のように述べています。「高度なAIを構築することは、ロケットを発射するようなものです。最初の課題は、加速を最大化することですが、速度を上げ始めたら、ステアリングに集中する必要もあります。」
37のプロジェクトの中には、AIシステムが人間の行動を観察することで好むものを学習できるようにするためのテクニックを検討する3つのプロジェクトがあります。これらのプロジェクトの1つはUCバークレー校で、もう1つはオックスフォード大学で行われます。
Machine Intelligence Research InstituteのBenja Fallensteinは、人間の価値に合わせて超インテリジェントシステムの利益を維持する方法を研究するために250,000ドルを取得しています。カーネギーメロン大学のManuela Velosoのチームは、20万ドルを受け取り、AIシステムがその決定を人間に説明する方法を調べます。
他のプロジェクトには、スタンフォード大学のマイケルウェッブによるAIの経済的影響を有益に保つ方法に関する研究、AI駆動兵器を「意味のある人間制御」下に保つ方法に関するプロジェクト、AIを研究するための新しいオックスフォードケンブリッジ研究センターが含まれます。 -関連するポリシー。
ハリウッドといえば、FLIは黙示録との関係を切り離そうとしています。 FLIは、事実とフィクションを区別することの重要性を強調しています。 「ターミネーターシナリオの危険性は、それが起こるということではなく、将来のAIによって提起される実際の問題から注意をそらすことです」とFLIのマックステグマーク社長は述べています。 「私たちは集中し続けており、今日の助成金でサポートされている37のチームは、このような実際の問題の解決に役立つはずです。」
どう思いますか?お金はうまく使われましたか?