すべてのユーザー、特に若いユーザーにとって安全なプラットフォームを作成する取り組みの一環として、TikTok は 新しいバージョンを立ち上げ、そのボーダーラインの示唆に富むモデル.このモデルは、性的に露骨な、暗示的な、または境界線上のコンテンツを自動的に識別します。そのため、TikTok が必ずしもコミュニティ ガイドラインに違反しているわけではないが、若い視聴者には適していない可能性がある動画を特定するのに役立ちます。
新しいモデルは、若いユーザーにとってより安全な環境を作成することを目的としています
TikTok によると、更新されたモデルは、すべての視聴者に適切ではない可能性のあるコンテンツを特定する際により正確かつ効率的です。これは、ティーンエイジャーの間でプラットフォームが人気であることを考えると、特に重要です。この種のコンテンツをより効果的に特定して削除することで、TikTok は若い視聴者にとってより安全で家族に優しい環境を作ることを目指しています。 TikTok は ブログ投稿。
ボーダーライン コンテンツの検出と削除における課題
他のプラットフォームではInstagram のように、推奨事項からボーダーラインのコンテンツを除外しようとしました。露骨なヌードを含まない、より「成熟した」テーマのコンテンツを検出します。これは、「示唆的な境界線」と容認できるコンテンツとの境界線が主観的なものになる可能性があるためです。同社は、新しいモデルが公平であり、一部のユーザーが受け入れられる可能性のあるコンテンツを不当に削除しないようにする必要があります。
TikTok は、新しいシステムがどれほど正確であるかについて具体的な詳細を提供しませんでしたが、同社は、過去 30 日間で「10 代のアカウントが 100 万本を超えるあからさまに性的な内容を暗示するビデオを見るのを防いだ」と述べています。