5月には、米国のバイデン大統領とハリス副大統領もこの楽しみに参加し、トップ人工知能企業アルファベット、マイクロソフト、オープンAI、グーグルの親会社アンスロピックのCEOらと会談し、企業に導入するよう圧力をかけた。 AI テクノロジーの潜在的な害を軽減するための新しい規制や法律をサポートする、と人工知能に関する保護措置を講じています。
ユーザーが生成AIツールを使って作った「マスクとAIガールフレンド」出典:インターネット
ChatGPT、Midjourney、DALL-E 2 に代表される生成型人工知能 (GAI、Generated AI) は、より深刻な新たな社会リスクを生み出し、人間社会の発展と技術の応用を可能にしているように見えます。 AI 技術 全体の状況は根本的に変化しており、新しい AI 技術の研究開発を完全に停止するなど、これに対処するための新たな戦略、対策、方法を採用する必要があります。
ChatGPTは超AIの出現の前兆だという人もいるが、今すぐ止めなければ(注:単なる停止ではない)、ひとたび「パンドラの箱」が開いてしまえば、人類はやがて支配されるか滅亡してしまうだろうスーパーAIによる。人々はそのような空想的なアイデアを真剣に受け止めることは困難です。特に、ChatGPT をスーパー AI のプロトタイプどころか、一般的な AI として認識していない専門家も少なくありません。
第三に、停止では問題は解決されません。たとえすべてのAI企業が本当にGAI研究を中止したとしても、リスク問題は解決されるのでしょうか?いいえ! LLM(Large Language Model、大規模言語モデル)を完全に停止・禁止しない限り、リスクは消えません。再スタートするときも、リスクと真正面から向き合わなければなりません。
今日、新しいテクノロジーは人類の生存と発展にとって置き去りにできない最も重要なツールです。社会的生産性の促進における GAI の役割が明確に明らかになりました。なぜ窒息を理由に食事をやめなければならないのか、なぜ制御された方法で GAI を使用できないのでしょうか?
マスク氏がAI開発の一時停止を求めるのは「吐き出し口」なのでしょうか?
著者: Liu Yongmou、中国人民大学哲学院教授、国家発展戦略院研究員
2023年3月、イーロン・マスクを含む数千人の専門家が共同で、GPT-4フォローアップ人工知能(AI)モデルのトレーニングを少なくとも6か月間一時停止することを求める公開書簡に署名した。このニュースが発表されるとすぐに、世界中のネットワークとメディアが爆発し、すぐにウー・エンダや他の「AI専門家」の反対を引き起こしました。結局、この件に関するさらなる情報はなく、GPT-4の停止はOpenAIによる誇大広告ではないかと疑われた。
4月にはイタリアがChatGPTを完全に禁止すると報じられ、その結果は罰金刑となった。
5月には、米国のバイデン大統領とハリス副大統領もこの楽しみに参加し、トップ人工知能企業アルファベット、マイクロソフト、オープンAI、グーグルの親会社アンスロピックのCEOらと会談し、企業に導入するよう圧力をかけた。 AI テクノロジーの潜在的な害を軽減するための新しい規制や法律をサポートする、と人工知能に関する保護措置を講じています。
ChatGPT、Midjourney、DALL-E 2 に代表される生成型人工知能 (GAI、Generated AI) は、より深刻な新たな社会リスクを生み出し、人間社会の発展と技術の応用を可能にしているように見えます。 AI 技術 全体の状況は根本的に変化しており、新しい AI 技術の研究開発を完全に停止するなど、これに対処するための新たな戦略、対策、方法を採用する必要があります。
本当にそうなのか?いいえ。
第一に、GAI は新たなリスクを生み出すものではなく、GAI が引き起こす可能性のある問題については、学界によって長い間議論され、要求されてきました。第二に、GAI リスクに対処するために新しい方法は必要なく、AI リスクに対処する鍵は常に実装です。
4月11日、中華人民共和国インターネット情報局は「生成型人工知能サービス管理措置(コメント草案)」を公表し、前例のないスピードでGAIガバナンスに対応し、GAIの適用が社会的に大きな影響を与えることを証明した。影響を与えるため、慎重に調査し、慎重に実装する必要があります。迅速に対応します。
01 AIの制御不能に注意 – 世界のテクノロジー分野における「ポリティカル・コレクトネス」
1)失業問題、すなわち、コピーライティングプランナー、オリジナルアーティスト、工業デザイナー、プログラマー、メディア関係者、翻訳者などの精神労働者の大量失業につながる可能性がある。
教育上の問題。たとえば、学生が宿題をする代わりに ChatGPT を使用できるなど、既存の教育および科学研究システムに影響を与える可能性があります。
情報セキュリティの問題、つまり、GAI が大量の人工知能制作コンテンツ (AIGC、AI Generated Content) を自動的に生成するため、真偽の区別が困難、疑わしい立場、所有権が不明瞭、説明責任が困難になる可能性があります。主流の価値観やイデオロギーへの挑戦となる危険なツールです。
AI のリスクは長年にわたり各国政府によって重要視されてきましたが、近年では社会全体の注目を集めるようになりました。明らかに、上記の GAI によって引き起こされる 3 つの主要な影響は新しい問題ではなく、ChatGPT が爆発的に普及した頃から学界や政府によって懸念され、研究されてきました。
過去 10 年間、モノのインターネットからビッグデータ、クラウド コンピューティング、ブロックチェーン、メタバース、ChatGPT に至るまで、AI の隆盛の波の中で、リスクに注意を払う声が後を絶たなかった。
私は専門的に新しいテクノロジーの社会的影響を懸念しており、AI が引き起こす可能性のある技術的リスクを皆さんに思い出させるために多くのエネルギーを費やしてきました。例えば、「テクノロジーガバナンスの一般理論」、「モノのインターネットとユビキタス社会の到来」、「テクノロジー病に効く薬はない」、「メタバースの罠」、「科学技術に関する14の講義」などの単行本を執筆している。社会」では、非専門家に ICT について思い出させます (情報通信技術の社会的影響と技術的リスク)。
AIの発展を警戒し、AIの暴走を防ぐことが、世界中の科学技術分野における「ポリティカル・コレクトネス」になりつつあると言えるだろう。こうした雰囲気のもと、「AIに制限領域はない」と公言する声は大きく抑制された。この点については、技術制御の選択理論家として、私も全面的に同意します。
現在の開発状況に関する限り、ChatGPT には、少なくとも 6 か月間停止するなど、「過剰な」方法で対処しなければならない重大なリスクはありますか?
ChatGPTは超AIの出現の前兆だという人もいるが、今すぐ止めなければ(注:単なる停止ではない)、ひとたび「パンドラの箱」が開いてしまえば、人類はやがて支配されるか滅亡してしまうだろうスーパーAIによる。人々はそのような空想的なアイデアを真剣に受け止めることは困難です。特に、ChatGPT をスーパー AI のプロトタイプどころか、一般的な AI として認識していない専門家も少なくありません。
スーパーAIは問題かもしれないが、人類の自滅を防ぐということになると、核戦争、気候変動、致命的なウイルスの蔓延、バイオテクノロジーの乱用など、多くのリスクがスーパーAIよりも優先されなければならない。まずそれらをすべて止めますか?たとえ止められなくても、一時停止しても構いません、少なくとも一時停止を呼びかけることはできます。
新しいことは何もないので、開発を一時停止するという思い切ったアプローチを取る必要はないのですが、なぜでしょうか。
まず、出場停止は不当である。 ChatGPTのリスク対応策が明確に考えられていないため、まずは停止するという意見もある。間違い!明確に考えていなかったのではなく、それを適切に実行できなかったのです。
第二に、禁止措置を実際に達成することは不可能であり、禁止に違反するAI企業が確実に存在し、その結果不公平な競争が生じるだろう。
第三に、停止では問題は解決されません。たとえすべてのAI企業が本当にGAI研究を中止したとしても、リスク問題は解決されるのでしょうか?いいえ! LLM(Large Language Model、大規模言語モデル)を完全に停止・禁止しない限り、リスクは消えません。再スタートするときも、リスクと真正面から向き合わなければなりません。
今日、新しいテクノロジーは人類の生存と発展にとって置き去りにできない最も重要なツールです。社会的生産性の促進における GAI の役割が明確に明らかになりました。なぜ窒息を理由に食事をやめなければならないのか、なぜ制御された方法で GAI を使用できないのでしょうか?
20世紀になると、人類は当時の技術で十分であり、今後も開発を続けると新たな問題が数多く発生するだろうから、その技術は止めるべきであり、科学者も研究をやめるべきだと主張する人がいた。このような極めて非合理的な考えは、社会によって真剣に受け止められることはありませんでした。
02 GAIの研究開発中止は実現不可能、全く無効な「口撃」
AIがさまざまな社会リスクを引き起こす可能性については、学界でも以前から指摘されており、さまざまな対策も打ち出されている。したがって、今問われているのは、AIの研究開発を停止することではなく、国情に応じたAIガバナンス措置を講じることである。 GAIの研究開発を一時停止するという考えは単純かつ失礼で、効果もほとんどなく、実現も不可能であることは事実が証明しており、全く無効な「発言」である。
AIの失業問題を例に挙げてみましょう。 AIの失業問題、つまり人工知能の進歩に伴い、ますます多くの人が職を失う問題は、AIの社会的影響における最大の問題であり、社会全体の包括的な制度革新に関わるものである。既存の文献では圧倒的ともいえるAI失業問題について議論されており、学生のキャリア計画、労働者のAIリテラシーの向上、社会保障と失業者の再雇用、社会保障の高度化と変革など、具体的な対策は数多くある。産業構造など
労働者の労働時間を計画的に削減し(すでに週4日勤務を試みているところもある)、AI税の徴収(AIは人間の知性の結晶であり、AI企業には重税が課せられている)など、長期的な戦略立案も印象的だ。全員共有)、フレキシブル退職制度(生涯に数回の短期退職が可能)など。
AI アプリケーションが現代の統治活動に与える最大の影響は、経済的自由の拡大、余暇時間の増加、公共統治の前提条件の大幅な変化、そしてそれによる社会運営の基本的な外観の変化にあります。しかし、この影響は同時に、社会全体のガバナンス活動に重大な課題をもたらす「AI失業問題」の深刻化を意味しており、慎重に対応する必要がある。 AIGCの産業化はAI失業問題の深刻さを改めて証明することになるだろう。全体的な政策の取り決めがなければ、ChatGPT は間違いなく多数の「AI 失業」をもたらし、ChatGPT のさらなる適用を妨げることになります。
「AI失業問題」の解決には、視点と現実の両方を考慮する必要があります。
長期的な視点で見ると、「AI失業問題」の解決は人間の社会システムの根本的な変化を伴うものであり、インテリジェントテクノロジーやインテリジェントガバナンスの発展だけでは解決できません。マルクス主義の基本原則によれば、「AI失業問題」は科学技術の生産性の発展と既存の生産関係との間の矛盾を反映している。ロボットが人間の労働を代替できるということは、それが実際に人間の労働を代替するという意味ではありません。なぜなら、そのような代替は、少数の人々が大多数の人々に制度上の取り決めを通じて強制的に働かせるという搾取システムを廃止することを意味するからです。本質的には、「AI失業問題」を解決するには、労働者の労働時間を継続的に削減し、人々により多くの余暇を与え、最終的には搾取の仕組みを完全になくさなければなりません。 20世紀の労働の歴史は、生産における現代技術の適用が社会に必要な総労働時間を短縮し続け、ますます多くの国で「8時間労働制」と「週末制」の導入を促進していることを示しています。 。
現実的に見ると、社会システムの進化には長い時間がかかり、徐々に着実に進化させ、知能化技術の継続的な発展を待たなければならないため、新たな雇用の確保が最も喫緊の課題となっている。人工知能の影響を受ける労働者がテクノロジーの進歩によって生み出された物質的な富を確実に享受できるようにする。
したがって、AIGC工業化の発生の初期に、国、政府、社会は綿密な調査を実施し、全体的な計画を立て、発生する可能性のある失業と雇用の圧力に積極的に対応する必要があります。
例えば、失業保険を改善し、再就職訓練サービスを提供し、若者のキャリア計画と創造性の向上を強化し、特に人文科学、芸術、その他の分野における学校の人材の方向性を調整し、新たな雇用を創出するための産業の高度化を不当に促進する。つまり、AI が伴う可能性のある失業リスクに直面した場合、私たちは二者択一の極端な考え方を捨て、それを回避し、リアルタイムで調整する必要があるのです。
**03 中国の AI はどのように管理されていますか? **
デジタル中国の構築は、デジタル時代における中国式の近代化を促進する重要な原動力であり、国家競争において新たな優位性を構築するための強力な支援となる。
デジタル中国の構築においては、AIが真に社会に利益をもたらすためには、「人間中心」のAIガバナンスを推進する必要がある。そのためには、まず社会全体にAIリスクの問題への関心を呼びかけ、政府、企業、NGO、科学技術界、国民が役割分担して政策・施策を改善し、資源の統合と部隊の連携を強化し、AI リスクを制御するための共同行動部隊を形成するプログラムが実際に実施されています。
さらに、AI リスクのガバナンスでは、次の原則的な提案も考慮できます。
まず、限定されたツールの原則を実装します。私たちは、インテリジェントなガバナンスの役割を明確に理解する必要があります。インテリジェントなガバナンスは万能薬の「完璧な武器」ではなく、多くの場合「失敗」し、社会の効率性を妨げるという逆の方向に進むことさえあります。したがって、インテリジェント技術の役割が限定的であることを常に念頭に置きながら、特定の分野、特定の問題、特定の場面におけるガバナンス効率の向上におけるインテリジェント技術の役割を認識し、問題解決のための技術的ガバナンス手段を優先する必要がある。 。科学技術の謙虚さを堅持し、「ビッグデータの迷信」に警戒し、特定の文脈と特定の分析を検討する姿勢を採用し、ガバナンス活動の実際の効果のフィードバックとリスク管理に注意を払う。
第二に、利用と制御を同等に重視することを主張します。インテリジェント ガバナンスの役割を果たすだけでなく、インテリジェント プラットフォームや技術ガバナンスの専門家の力が制御不能になるのを防ぐために、特定のインテリジェント ガバナンスを制御することも必要です。同時に、インテリジェントなガバナンスによって引き起こされる可能性のある社会的リスクを回避するために、制度的・技術的手法を使用する必要があります。
第三に、「AI失業問題」に適切に対処すること。現代の統治活動に対するインテリジェントテクノロジーの適用の最大の影響は、経済的自由の拡大、余暇時間の増加、公共統治の前提条件の大幅な変化、そしてそれによる社会運営の基本的な外観の変化にあります。しかし、この影響は、社会全体のガバナンス活動に重大な課題を与え、社会全体の注目を集めている「AI失業問題」がますます深刻化していることを意味しており、慎重に対処しなければなりません。
第四に、「スマートシティ」と「デジタルビレッジ」の構築を緊密に統合する。科学的に都市を運営することは、現代のテクノロジーガバナンスにとって重要な戦略的手段であり、スマートシティは科学都市の先進的な形態です。現在、人類は主に都市、特に大都市や超大都市に住んでいることから、現在のインテリジェント・ガバナンスは主に「スマートシティ」の構築、あるいは「スマートシティ」の構築を主体として推進されている。特に、デジタル中国の建設にはデジタル村の建設を無視することはできず、デジタル化を通じて都市と農村の格差を縮める努力が必要である。
第五に、インテリジェントテクノロジーと人々の統合に注意を払います。テクノロジーガバナンス活動においては、テクノロジーと人材の組み合わせが優れているほど、ガバナンスの効率は高くなります。インテリジェント・ガバナンス活動における人的要素と技術的要素の統合を強化するには、さまざまなインテリジェント技術の特性と関連する倫理、法律、心理、危機管理などを体系的に反映し、システム構築、技術研究開発を推進する必要がある。 、人材の確保、組織のリーダーシップの強化、専門家の協議と実戦演習を実施し、中国のインテリジェントな統治能力を継続的かつ体系的に向上させる。
第 6 に、特定の状況におけるガバナンスと操作を区別します。インテリジェントな統治には限界があり、限界を超えるとインテリジェントな操作となり、国民の基本的権利を侵害します。今後のインテリジェント・ガバナンスの発展には、ガバナンスの目的だけでなく、その手段も含めてさまざまな適用の限界を具体的に考慮する必要があり、特定の社会的文脈においてのみ冷静かつ客観的かつ慎重に検討することができる。インテリジェント・ガバナンスがインテリジェントな操作に向かうのを防ぐために、非常に重要な問題は、インテリジェント・ガバナンスの反ガバナンス行為をある程度許容しなければならないということである。