「ChatGPT」を開発するOpenAIが子ども向けの安全性に取り組むチームを結成する。子どもがAIを使うことのリスクに対する懸念に対応すると見られる。
OpenAIで募集されている業務内容
OpenAIのキャリア(募集)ページに「Child Safety Enforcement Specialist」の募集情報が掲示されことから、同社がChild Safetyチームの組成が明らかになったという。
募集情報によると、Child Safetyチームは「OpenAIの技術が未成年ユーザーに有害な方法で誤用されないようにサポートする」としており、法務やプラットフォームポリシー、調査部門と密に連携して、プロセス、インシデント、レビューを管理しながらオンラインエコシステムを保護するとしている。Tech Crunchが2月8日付で報じている。
OpenAIは現在、利用規約において13歳~18歳のユーザーが利用するには保護者の同意が必要で、13歳未満のユーザーの利用は禁じられている。一方で、学生はOpenAIを日々の勉強に使っている。
募集中のポストでは業務として、ポリシーに反するコンテンツのレビューとそのプロセスの改善、モデレーション業務の効率化、エスカレーションへの対応と調査とフォローアッププロセスの担当または支援、エンジニア/ポリシー/リサーチチームとの協力により悪用コンテンツの理解を向上させる、などが挙がっている。