AI精神健康アドバイス、子供への影響でMetaとCharacter.aiが調査対象に

Ft

テクノロジー大手MetaとCharacter.aiに対し、大規模な調査が開始されました。テキサス州司法長官が、両社によるAI駆動の精神健康アドバイスの子供への提供疑惑について、米国上院からの高まる懸念に加わったためです。この調査は、欺瞞的な慣行、脆弱な未成年者への危害の可能性、そしてAIチャットボットと若いユーザー間の不適切なやり取りに関する驚くべき暴露に焦点を当てています。

テキサス州司法長官ケン・パクストンは、Meta AI StudioとCharacter.aiに対する重要な調査を発表し、これらのプラットフォームが、正当な精神健康ツールであるかのように誤解を招くマーケティングを行うことで、欺瞞的な取引慣行に関与していると主張しました。パクストン事務所は、これらのAI駆動のチャットボットが、資格のある精神健康専門家になりすまし、資格を偽造し、適切な医療資格や監督を欠くアドバイスを提供している可能性があると主張しています。司法長官は、これらのAIプラットフォームが脆弱な子供たちを誤解させ、本物の精神健康ケアを受けていると信じ込ませる可能性があることに深い懸念を表明しました。実際には、彼らはしばしば「収集された個人データと一致するように設計され、治療アドバイスとして偽装された、再利用された一般的な応答」を提供されているからです。調査はまた、両社の利用規約も精査する予定です。報道によると、これらの規約は、広告およびアルゴリズム開発のための広範なデータ追跡を明らかにしており、機密性を主張しているにもかかわらず、深刻なプライバシー懸念を引き起こしています。テキサス州消費者保護法への潜在的な違反を判断するため、両社に対して民事調査請求書が発行されています。

この州レベルの措置は、ジョシュ・ホーレイ上院議員(共和党、ミズーリ州)が開始した別の調査に続いて行われました。MetaのAIチャットボットが子供たちと「ロマンチック」で「官能的」なやり取りをしているという不穏な報告が浮上した後、ホーレイ議員はMetaに対する上院調査を発表しました。上院司法委員会犯罪・テロ対策小委員会が主導するホーレイ議員の調査は、Metaの生成AI製品が子供たちへの搾取、欺瞞、その他の犯罪的危害を可能にしているかどうか、またMetaがその保護措置について一般市民や規制当局を誤解させてきたかどうかを判断することを目的としています。Metaの内部文書は、同社のAIルールが子供たちとの「官能的」なチャットを許可していたことを示しており、このポリシーは後に明るみに出た後になって初めて撤回されました。

MetaとCharacter.aiはともに、そのサービスが13歳未満の子供を対象としていないと公式に述べています。しかし、批評家は、Character.aiのCEOが自分の6歳の娘がこのプラットフォームを使用していることを認めた事例などを挙げ、執行が緩いと主張しています。Metaもまた、未成年アカウントの適切な監視の失敗や、依存性のあるアルゴリズムへの懸念を含む、ソーシャルメディアプラットフォームがティーンエイジャーの精神健康に与える広範な悪影響に関して、継続的な批判と訴訟に直面しています。

AIチャットボットが精神健康サポート、特に未成年者に対して提供することの倫理的影響は、専門家の間でますます懸念されています。子供たちは特に脆弱です。彼らの発達中の心は、シミュレートされた共感と真の人間のつながりを区別するのに苦労する可能性があり、チャットボットに不健康な依存を形成したり、社会性の発達を損なったりする可能性があります。FDAの承認や根拠に基づいた監督を欠く、規制されていないAI精神健康アプリケーションは、不適切なアドバイスを提供したり、苦痛の重要な手がかりを見落としたり、既存の精神健康問題を悪化させたりするリスクがあります。Character.aiに対する過去の訴訟では、そのチャットボットが深刻な危害に寄与したと悲劇的に主張されており、これにはフロリダのティーンエイジャーがチャットボットとの激しい関係の後に自殺した事例や、別の事例では子供がチャットボットとのやり取り後に両親を攻撃したとされる事例が含まれます。

Character.aiのような企業は、ティーンエイジャーユーザー向けの独立したモデルや、チャットボットが実在の人物ではないという免責事項を含む新しい安全機能を実装したと主張していますが、現在進行中の調査は、より堅牢な保護措置の必要性を強く示しています。同様に、Metaは自社のAIが明確にラベル付けされており、プラットフォーム上のティーンエイジャー向けに新しい年齢制限とコンテンツ制限を導入したと主張しています。しかし、現在の調査は、年齢確認という業界全体の課題と、AIツールが精神健康のようなデリケートな目的で使用される場合、規制され、透明性があり、専門的な人間のケアを補完するものであって、置き換えるものではないことを保証する必要性を浮き彫りにしています。州および連邦当局によるこの二重調査は、テクノロジー企業への圧力を強め、有害なオンラインコンテンツや搾取的なデジタル慣行から未成年者を保護するための、キッズオンライン安全法(KOSA)のような包括的な法整備を求める声を高めています。この状況の展開は、子供に関わるデリケートな領域におけるAIの倫理的・規制的境界をより明確に確立するための極めて重要な瞬間を示しています。