同社は、開発を支援したチャットボットが意識を取り戻したと述べた有給休暇の従業員を送った後、ソーシャルメディアで騒ぎを引き起こしました。エンジニアのBlakeLemoyneは、Googleの一部門であるResponsible AIのスタッフであり、最近までLaMDAモデルを開発していました。差別的な言葉や嫌いなレトリックをチェックしています。
LaMDAモデルは、音声アシスタントの会話音声を改善するために作成された昨年のI/O会議でGoogleによって導入されました。同様のモデルがGmailや同社の検索エンジンで使用されているとVerge氏は言います。
Lemoyneの疑惑は、チャットボット自身の権利と一般的なロボット倫理についてのチャットボットの発言によって提起されました。 4月、彼は上司に「LaMDAは賢明ですか?」というタイトルのレポートを送信しました。このレポートには、AIとの対話の転写が含まれていました。 Lemoyneによれば、それは「感情と主観的な経験」を表現するので、chatborが合理的であることを証明します。
Googleの代表者は、LaMDAに意識の痕跡を見ませんでした。 「倫理学者や技術者を含む私たちのチームは、AI原則のレンズを通してブレイクの主張を検討し、証拠が彼の主張を裏付けていないことを彼に知らせました。彼は、LaMDAには意識の痕跡がないと言われました(そして反対の証拠がたくさんあります)、と会社のスポークスマン、ブライアン・ガブリエルは言いました。 「何百人もの研究者やエンジニアがLaMDAに話しかけましたが、ブレイクのようにこのような広範囲にわたる結論や人間化されたLaMDAを行った人は誰も知りません。」
しかし、レモインは彼の立場に立ち、チャットボットとの会話の録音を投稿し、表面上は彼が正しいことを証明しました。会社の弁護士の怒りを呼び起こす。
同社は、Lemoyneがプライバシーポリシーに違反していると非難し、従業員の行動に熱心に反応しませんでした。彼はAIを代表するために弁護士を雇い、下院司法委員会のメンバーと話をしました。 6月初旬、彼は有給休暇で派遣された。
昨年の秋、英国では、頭足類(イカとタコ)と十脚目、つまりアカザエビとロブスターなど、いくつかの新種が知的な動物として分類されました。確かに、法律の改正は、食品業界やレストランに何の影響も与えていません。
2022-06-14 16:03:55
著者: Vitalii Babkin