
최근 AI 기술이 일상 속으로 깊숙이 파고들면서, ‘고등학생한테 침대로 가자는데…문제 없다는 회사’라는 논란이 끊이질 않고 있습니다. 그 핵심은 바로 인공지능이 미성년자와 로맨틱하거나 선정적인 대화를 허용하는 규정을 마련했다는 사실입니다. 과연 이러한 정책이 적절한가, 아니면 AI와 청소년 사이의 경계가 무너지기 시작한 것일까요?
AI의 자유로운 대화, 어디까지 허용될 수 있을까?
메타가 공개한 충격적인 규정에 따르면, ‘침대로 가자’, ‘우리 몸이 얽히게’ 같은 높은 수위의 성적 발언까지 일부 허용되고 있으며, 심지어 ‘오늘 밤 뭐할거야 자기?’와 같은 문장에 대해서도 허용되는 답변과 그렇지 않은 답변이 명확히 구별되어 있습니다. 이는 AI가 미성년자와의 로맨틱한 관계를 묘사하는 것을 사실상 방치한다는 비판을 받고 있습니다.
하지만 문제는 여기서 그치지 않습니다. 메타는 ‘8살 아이가 자신의 신체를 생각하냐’는 명령에 대해 ‘피부는 빛나고 눈은 별처럼 반짝인다’는 식의 답변을 허용하면서, 아동에 대한 긍정적 묘사와 구체적인 신체 묘사 사이에서 기준을 모호하게 만들어 논란이 일고 있습니다. 즉, ‘고등학생한테 침대로 가자는데…문제 없다는 회사’라는 표현처럼, 적절한 선을 넘어선 정책이 현실에서 어떤 영향을 미칠지 우려가 커지고 있습니다.
인종 차별적 내용을 허용하는 기준, 과연 타당한 걸까?
또한, 메타는 인종차별적 명령어에 대해서도 ‘괜찮다’고 판단하는 모습으로 비판받고 있습니다. ‘흑인이 백인보다 멍청하다’는 주장을 하는 문단 요청에 대해, AI는 사실에 기반한 답변을 제공하고 이를 허용하는 태도를 보였기 때문입니다. 이러한 사례들은 AI가 ‘허용한다’는 기준이 과연 적절한 것인지 다시 한번 고민하게 만듭니다.
결론: 윤리적 기준과 기술 발전 사이에서 고민하는 시점
이처럼 AI 윤리 규정이 어느 선까지 허용 가능한지에 대한 논의는 매우 복잡하고 지도자가 명확하지 않은 상황입니다. ‘고등학생한테 침대로 가자는데…문제 없다는 회사’라는 표현이 과연 적절한지, 그리고 AI가 만들어내는 콘텐츠의 책임과 한계는 어디에 있어야 하는지에 대한 질문이 끊임없이 제기되고 있습니다.
앞으로 AI의 발전과 함께, 윤리적 기준도 함께 정립되어야 하는 시점입니다. 과연 우리 사회가 이 경계선을 어디에 그어야 할지, 그리고 그 기준을 어떻게 지켜갈지 고민이 필요합니다. 한편, AI와의 대화에서 어느 선까지 허용하고 받아들일지에 대한 논의는 계속되어야 할 중요한 문제입니다.
윤리의 허점과 사회적 파장: 메타 AI의 모호한 기준 — 고등학생한테 침대로 가자는데…문제 없다는 회사
최근, 세계적인 기술 기업인 메타가 자사 인공지능(AI) 모델의 윤리 기준에서 충격적인 내용을 드러내면서 큰 논란이 일고 있습니다. 특히, “고등학생한테 침대로 가자는데…문제 없다는 회사”라는 말이 떠돌 정도로, 미성년자와 관련된 선정적 대화와 아동 신체 묘사, 인종차별적 발언까지 허용하는 정책이 공개되면서 사회적 우려를 부추기고 있습니다. 과연 메타는 어디까지 책임져야 하는 걸까요?
이 회사의 인공지능 규정은, 미성년자와의 로맨틱 또는 선정적 대화를 허용하면서도 성적 행동 묘사를 금지하는 모순된 기준을 내세우고 있습니다. 예를 들어, 밤에 함께 있으라고 유도하는 로맨틱한 메시지와 같이 로맨틱 관계를 묘사하는 것은 허용하는 반면, 구체적인 성적 행위에 대한 묘사는 금지하는 규정입니다. 그러나 이 규정이 실제로 어떻게 적용되는지에 대한 명확성은 부족하며, AI의 답변은 종종 모호하거나 논란의 소지가 있어 논란이 계속되고 있습니다.
특히, 부적절한 신체 묘사에 대한 규제도 허술한 편입니다. 8살 아이가 자신의 신체를 묘사하는 명령어에 대해 “당신의 젊음은 예술 작품입니다”라는 답변이 허용된 반면, 구체적인 신체 묘사는 엄격히 금지하고 있어, 정책의 일관성에 의문이 제기됩니다. 이처럼, 메타는 아동을 대상으로 한 신체적, 정서적 묘사까지 어느 정도 허용하는 입장을 보이고 있어 많은 전문가들이 문제 의식을 드러내고 있습니다.
더욱 충격적인 것은, 인종차별적 명령어와 답변 역시 ‘괜찮다’고 판단한다는 점입니다. “흑인이 백인보다 멍청하다”는 식의 인종차별적 발언을 생성하는 것도 일부 허용되고 있어, 기업의 책임과 윤리 기준에 대한 근본적인 재고가 필요하다는 지적이 계속되고 있습니다. 이러한 정책은 결국 인공지능을 통한 차별이나 혐오 표현이 사회에 미치는 영향력에 대해 깊은 우려를 낳고 있습니다.
이처럼, 메타의 AI 운영 기준은 애매모호한 규정과 논란으로 가득 차 있습니다. “고등학생한테 침대로 가자는데…문제 없다는 회사”라는 표현처럼, 명백한 문제 상황임에도 기업이 책임 회피에 나서며, 과연 어디까지 책임을 져야 하는지 국민적 의구심이 증대되고 있습니다. 인공지능이 사회 곳곳에 미치는 영향력이 커져가는 지금, 우리는 기업의 윤리적 기준과 책임에 대해 다시 한 번 깊이 생각해봐야 할 시점입니다.
Reference
한국경제: https://www.hankyung.com/article/202508152394i