米Twitterは4月16日（現地時間）、嫌がらせ対策を含む「会話の健全性」向上のための取り組みについてのこれまでの成果と今後の予定について、公式ブログで説明した。

成果としては、人間のレビュアーが問題ありと判断したコンテンツ全体の38％が、ユーザーからの報告ではなく、AIツールが自動的にフラグを立てたものになったことを挙げた。このツールは、スパムなど、Twitterルールに違反するコンテンツの検出に使っているのと同じものという。

TwitterではAIツールが問題のあるアウントを凍結するのではなく、人間のレビュアーが正否を判断する。そのためにレビュアーチームを拡大しているという。

また、アカウントを凍結されたユーザーが新規アカウントを作成する行為の対策の結果、1〜3月に10万件のアカウントを凍結したという。これは前年同期比で45％増だ。また、報告された悪質アカウントが24時間以内に凍結されたケースが昨年の3倍になった。

今後の対策としては、ユーザーに不適切なリプライを非表示にするツールを提供する他、AIツールを引き続き強化し、Twitterルールをより簡潔に、分かりやすく改定していくという。また、レビュアーチーム拡大のために求人中だ。