デジタル世界の市民権を保護する法的な活動を行う非営利組織EFF(Electronic Frontier Foundation)のコリーン・マクシェリー氏が、昨年末に「User Generated Content and the Fediverse: A Legal Primer」(ユーザー生成コンテンツとFediverse:法律入門)という、MastodonなどFediverseインスタンスをホストする上での法的なリスクを軽減するためのガイドを公開した。

インスタンスを立てるのは簡単ではないものの、すでに情報が蓄積されていることもあって、技術者ではない個人でも挑戦でき、趣味的な感覚で開始するケースも少なくない。 しかし、規模の大小にかかわらず、インスタンスの運営者は単なるサーバの管理者ではなくサービスプロバイダーになる。費用や管理の時間のようなコストだけを計算して、法的な問題への対応を疎かにすると、著作権やプライバシーを侵害する問題が起こった際に管理不備の責任が問われる。ケースによっては、違反が破滅的な損害賠償につながる可能性も。しかし、過度に怖がる必要はなく、それを踏まえて事前に対策を立てておけば、比較的簡単ないくつかの方法でリスクを軽減できるとしている。

  • EFFが公開した「ユーザー生成コンテンツとFediverse:法律入門」

    EFFが公開した「ユーザー生成コンテンツとFediverse:法律入門」

例えば、米国ではデジタル・ミレニアム著作権法(DMCA)によって、サービスプロバイダーが著作権保有者またはその指定代理人から侵害の申し立て通知を受け取った際に当該コンテンツを迅速に削除すれば、著作権侵害の責任が免除される「セーフハーバー」免責を認めている。それによって二次的責任にまつわる複雑な法律問題や法的責任を問われるリスクから身を守れる。ただし、セーフハーバーは自動的に適用されるわけではなく、著作権局にDMCAエージェントを登録する必要があり、DMCAポリシーを定めてそれを実施しなければならない。

また、通信品位法の第230条によって、利用者の発言に対する様々な法的な責任からプラバイダーは原則的に保護されている。こちらは自動的に適用されるが、売春のような人身取引を助長または促進するコンテンツは保護対象から外されるので注意が必要になる。他にも、プライバシーと匿名性に関してユーザーのデータや情報を保持することで起こり得ること、プライバシーが関わる問題の対応をスムースにするためのガイドラインや透明性報告書、CSAM(児童性的虐待コンテンツ)に関する義務などについて解説している。

イーロン・マスク氏が10月末にTwitter買収を完了してから、大胆な改革を矢継ぎ早に打ち出したことでTwitterのアクティブユーザー数が過去最大を記録した。その一方で、マスク氏個人の意向にコントロールされるプラットフォームを嫌って、TwitterからMastodonのような分散型ソーシャルネットワークに移行する動きも加速している。

この記事は
Members+会員の方のみ御覧いただけます

ログイン/無料会員登録

会員サービスの詳細はこちら