その訴状はまた、Strike 3 が Meta が 2,500 を超える隠されたまたは第三者の IP アドレスを使用したという主張に異議を唱えています。Meta は、原告がこれらのアドレスの所有権を確認できなかったと主張し、代わりに緩やかな相関関係に依存したとしています。Meta に関連付けられているとされる IP 範囲の一つは、実際には会社とは無関係のハワイの非営利団体に登録されており、他のものは全く特定の所有者がいませんでした。Meta はさらに、いかなる主張されたダウンロードについても知識がなく、またそれを防ぐ能力もなかったと主張し、それらから利益を得ていないことを強調し、ネットワーク全体の監視は技術的に困難であり、法的にも不必要であると述べています。
メタ、AIトレーニングの疑惑に関するポルノ著作権訴訟の却下を求める
メタは、人工知能システムを訓練するために数千本のポルノビデオを違法にダウンロードおよび配布したと非難する訴訟を米国連邦裁判所に却下するよう求めました。 同社は、カリフォルニア州北部地区の米国地方裁判所に月曜日に棄却を求める申し立てを行い、同社のAIモデルが著作権で保護された成人向け素材を含んでいるか、それに基づいて訓練された証拠はないと主張しました。 メタは、この申し立てを「無意味で支持されていない」と表現し、主張は全く根拠がないと insist しています。
ストライク3ホールディングスの原告の主張
この苦情は、マイアミに拠点を置く成人映画会社Strike 3 Holdingsによって7月に元々提出されました。Strike 3は、Metaが2018年以降に自社の約2,400本の映画をトレントするために、企業および隠れたIPアドレスの両方を使用したと非難しています。Strike 3は、これらのダウンロードが視覚データとテキストベースのデータを処理することができるマルチモーダルAIシステムを構築するためのより広範な取り組みの一部であると主張しました。
ダウンロードの規模とパターンに疑問を呈する
メタの動きは、ストライク3の理論の背後にある論理に異議を唱え、主張されたダウンロードのスケールとパターンの不一致を指摘しています。裁判所の書類によると、ストライク3の映画のうち、メタの法人IPアドレスを使ってダウンロードされたのはわずか157本であり、7年間で年間平均約22本、47のアドレスにわたってのことです。メタの弁護士アンジェラ・L・ダニングは、この活動を「わずかで、調整の取れていない」と表現し、AIシステムのトレーニングデータを収集するための企業の協調的な努力ではなく、「異なる個人」が個人的な使用のためにコンテンツをダウンロードしている可能性が高いと述べました。
争われているIPアドレスと証拠の不足
その訴状はまた、Strike 3 が Meta が 2,500 を超える隠されたまたは第三者の IP アドレスを使用したという主張に異議を唱えています。Meta は、原告がこれらのアドレスの所有権を確認できなかったと主張し、代わりに緩やかな相関関係に依存したとしています。Meta に関連付けられているとされる IP 範囲の一つは、実際には会社とは無関係のハワイの非営利団体に登録されており、他のものは全く特定の所有者がいませんでした。Meta はさらに、いかなる主張されたダウンロードについても知識がなく、またそれを防ぐ能力もなかったと主張し、それらから利益を得ていないことを強調し、ネットワーク全体の監視は技術的に困難であり、法的にも不必要であると述べています。
法的および戦略的な影響
法律の専門家は、Metaの防御戦略は独特であるが、重要な意味を持つ可能性があると示唆している。ベンチャーキャピタル会社Ryze Labsの共同創設者であるダーモット・マクグラスは、Metaが素材の使用を完全に否定する選択をしたことで、公正使用の議論や内部トレーニングプロセスの開示の複雑さを回避できるとDecryptに語った。マクグラスによれば、そのようなデータが使用されたことを認めることは、Metaにその包含を正当化させ、外部の精査にAIシステムをさらすことを強いることになる。
将来のケースに対する潜在的な抜け穴
マクグラスは、裁判所がメタの防御ラインを受け入れた場合、広範な影響を持つ前例を作る可能性があると警告しました。メタに有利な判決は、将来のAI関連のケースにおける著作権保護を弱体化させる抜け穴を生み出す可能性があり、データ使用における企業の意図や指導を証明することが難しくなるかもしれません。その結果、企業はデータ収集方法を隠すことにさらに熟練する可能性があります。
AIにおける明示的な素材の正当な使用
論争にもかかわらず、専門家はAI企業が明示的な素材を扱う正当な理由があることを認めています。多くの企業は、有害またはポルノコンテンツを検出しブロックするための安全性およびモデレーションツールを開発しています。マグラス氏は、AIの「レッドチーム」がしばしばこれらの安全フィルターを明示的な例を使って訓練することを説明し、その結果、システムはそのような素材の生成を認識し防止できるようになると述べました。「効果的な安全フィルターを構築するには、ブロックしようとしている例でそのフィルターを訓練する必要があります」と彼は指摘しました。