ChatGPT가 중단되는 문제가 발생하여 주목을 받았습니다. 이러한 현상은 특정 이름에 대해 사전적으로 설정된 필터가 작용하기 때문이며, 이는 법적 문제에 대비하기 위한 것으로 보입니다. 이러한 필터 작용은 추후 의미 있는 장애물이 될 가능성이 있습니다.
ChatGPT의 이름 필터 문제
OpenAI의 ChatGPT는 정교한 AI 모델에 다양한 콘텐츠 필터가 적용된 시스템인데, 최근 몇 가지 이름을 입력하면 중단되는 문제가 발생했다고 합니다. 이는 ChatGPT가 특정 이름을 언급할 때 잘못된 정보를 생성할 위험을 피하기 위한 필터의 결과로 밝혀졌습니다.
문제 발생의 원인
해당 이름으로는 “Brian Hood”, “Jonathan Turley”, “Jonathan Zittrain”, “David Faber”, “Guido Scorza” 등이 있었으며, 이름이 언급되면 ChatGPT는 “응답을 생성할 수 없습니다”라는 메시지를 표시하며 세션을 종료했습니다. 이는 OpenAI API 시스템이나 개발자를 위한 OpenAI Playground에서는 영향을 받지 않는다는 점에서, 특정 필터링 메커니즘이 작동하고 있음을 시사합니다.
왜 이런 이름들이 포함되었나?
이러한 필터링 이름들의 배경에는 법적 분쟁의 사례들이 있습니다. 예를 들어, 호주의 전 시장 Brian Hood의 경우, ChatGPT가 잘못된 감옥 이야기를 생성해낸 결과로 OpenAI와의 법적 대결을 예고했었습니다. 이를 방지하기 위해 OpenAI는 2023년 필터를 도입한 것으로 보입니다.
하드코딩 된 필터의 문제점
특정 이름이나 구가 항상 ChatGPT의 출력을 멈추는 것은 쓸모를 감소시킬 수 있습니다. 이는 잠재적인 공격의 표적이 될 수 있으며, 예를 들어 이미지에 거의 보이지 않게 “David Mayer”라는 이름을 삽입할 경우 세션이 중단될 수 있음을 커뮤니티에서 발견했습니다.
ChatGPT는 혁신적인 도구로 여전히 다양한 잠재적 기회와 문제를 가지고 있습니다. OpenAI가 이러한 문제를 어떻게 해결할 것인지는 아직 미지수입니다.
