TeamYouTube(YouTube運営)は、投稿動画のコメント欄における、スパムの検出機能の改善を進めていると発表。同時に、ライブ配信中にスパムを投稿するボットを排除するためのシステムをアップグレードしたことも告知しました。
発表によると、スパム検出機能の改良は以前から行われており、2022年の上半期では、11億件以上のスパムコメントを除去したとのこと。検出には独自の機械学習モデルを使用しており、継続的に改善が行われているそうです。
また、YouTubeが、ガイドラインに違反すると判断したコメントを削除した際、該当ユーザーに警告する機能もリリースされました。問題のあるコメントを残し続けた場合、タイムアウトが発生し、最大24時間、コメント不能になる場合もあるとのこと。記事執筆時点では、同機能は英語コメントにのみ対応しますが、今後数か月のうちに他言語にも対応する予定です。
現在、VTuberをはじめとしたストリーマーの配信では、スパムコメントによる“荒らし”が発生しており、配信主やモデレーターなどが対応する形で対処が行われています。検出機能がより改善され、タイムアウト機能の運用が本格化することで、こういった問題が減少していくことが期待されます。