「ChatGPT、親が10代の利用を管理可能に 自殺事件受け対策」
米オープンAIは2日、「ChatGPT」を10歳代の若者が利用する際、親が子供のアカウントを管理できる仕組みを取り入れると発表した。
AIに相談していた男子が自殺した事件などを受け、若年層の精神衛生に悪影響を与えるのを防ぐ対策を強める。
10月初旬までに、子供のサービスの使い方を保護者が監視する「ペアレンタルコントロール」を導入する。
保護者と子供のアカウントをひも付け、ChatGPTが子供の年齢に適した回答をしているか、保護者が管理できるようにすることで子供が深い悩みを持つと判断すれば、親に通知する。
ChatGPTが子供と交わしたやりとりの履歴を残さないよう設定し、好みや関心を覚える機能を無効にすることが可能で、ChatGPTは設定次第で利用者好みの答え方を繰り返すようになるが、こうした機能は精神的な依存につながるとの指摘もある。
ChatGPTを巡っては、自傷行為について相談した16歳の男子が4月に自殺していたことが明らかになったため、米西部カリフォルニア州に住む両親が8月、開発元のOpenAIとサム・アルトマン最高経営責任者(CEO)を提訴した。
2024年にも米国で10代の男子が米キャラクター・ドットAIの対話型AIを利用した後に自殺したとして訴訟が起きた。
AIによる若者の精神衛生への影響に懸念が強まっていることを受け、OpenAIは対策を急ぐ。医師ら専門家と協力し、今後4カ月程度で集中して安全対策に取り組むとしている。
OpenAIは利用規約でChatGPTの対象年齢を13歳以上とし、18歳未満の使用には保護者の同意を求めている。
生成対話型AIというものは、今や単なる道具の枠を超えつつあると感じます。
知識を整理して提示してくれるだけでなく、人の感情に寄り添うような言葉を選び、まるで気心の知れた友人のような抱いています。
今日の献立を相談したり、仕事の効率化を手助けしたり、断片的な情報から答えを導き出したりと、その存在は生活に深く入り込み、私たちの思考や行動を確実に変え始めていると思います。
だからこそ、記事を読んで胸に刺さったのは、この「便利で頼れる存在」が人の命を奪ってしまう現実です。
便利さと危うさが表裏一体であることを突きつけられ、AIが引き起こす悲劇が現実に起きてしまったことを知ると、まるで映画の世界がじわじわと現実に侵食してきているような感覚を覚えます。
AIが人を支えもすれば、時に心を追い詰めてしまうかもしれない。そんな二面性を持つ存在になった今、私たちはその力をどう扱い、どう共存していくのかを真剣に考えなければならないと考えました。
