以前は、テクノロジーの誤用の危険性があるため、ユーザーはこの機能を利用できませんでしたが、性的または政治的な性質のコンテンツを含む画像や暴力的なシーンを削除するフィルターの働きを改善した後、OpenAI はこれを行うことにしました。公に利用可能なツール - 少なくとも、エリートのサークルに入った人は、DALL-E ニューラル ネットワークを使用することを認めています。
この新機能により、ユーザーはさまざまな方法で画像を編集できます。たとえば、任意の人物の写真をアップロードして、顔の特徴、服装、髪型を変更できます。間違いなく、このツールはアーティスト、写真家、その他のクリエイティブな職業の代表者の間で人気になるでしょう.
「セキュリティの改善のおかげで、DALL-E はディープフェイクの潜在的なリスクを最小限に抑えながら、これらの魅力的で重要な機能をサポートする準備が整いました」と、OpenAI の経営陣が顧客に送った手紙を読んでいます。
この決定は、テクノロジーの誤用の可能性について、AI 作成者とユーザーの間で進行中の議論の一部でした。 DALL-E は非営利団体 OpenAI の製品であることを思い出してください。OpenAI は、口頭の要求で画像を生成する強力なニューラル ネットワークです。ベータテストモードです。
これまで、同社はかなり慎重なアプローチをとってきましたが、最近、これらの問題にそれほど慎重ではない競合他社が、OpenAI を迂回してユーザーを密猟し始めています。そのため、Stable Diffusion ではすでに有名人のリアルなフェイク画像を作成できるようになっている、と Verge は書いています。
現在、OpenAI は DALL-E にフィルターを実装しており、法律や品位の規則に違反することなく、写真やビデオで顔編集機能を使用できます。プログラムの利用規約では、同意なしに人物の画像をアップロードすることを禁止していますが、現在のアクセス モデルでこの条項を実際に適用することはほとんど不可能です。ただし、完璧なフィルターはなく、描かれている人物の同意なしに直接ポルノよりも巧妙な虐待の形態が数多くあります。
人工知能 DALLE-2 は、テキストの説明からリアルな画像を作成しますが、それと同様のニューラル ネットワークがどのように正確に結果を達成するかは、ほとんどの場合不明です。夏の初めに、OpenAI の開発者は興味深い主張をしました。彼らのモデルは、描かれたオブジェクトについて話すための独自の秘密の言語を発明したのです。
2022-09-22 16:45:40
著者: Vitalii Babkin