제미나이 챗봇, 개인화 메모리 기능 추가…보안 우려 커지다
구글은 인공지능(AI) 개인화 기능을 강화하기 위해 '제미나이' 챗봇에 '메모리' 기능을 추가하였다. 20일 테크크런치 보도에 따르면, 이 기능은 사용자가 챗봇과의 대화에서 선호하는 정보를 저장하고 기억하게 함으로써 보다 맞춤형 대화 경험을 제공한다. 현재 이 기능은 구글의 프리미엄 서비스인 '구글 원 AI 프리미엄 플랜' 가입자에게 우선 제공되며, 현재는 웹 클라이언트에서만 사용할 수 있다. 추후 iOS와 안드로이드 앱으로도 확대될 가능성도 있으나, 일정에 대한 구체적인 정보는 공개되지 않았다.
메모리 기능은 사용자에게 원하는 정보를 선택적으로 저장할 수 있는 옵션을 제공한다. 사용자는 특정 정보를 저장하거나 삭제할 수 있어 데이터 관리에 대한 유연성을 갖게 된다. 또한 구글은 이 저장된 정보가 모델 훈련에 사용되지 않으며, 개인 정보가 외부에 공유되지 않는다고 강조하고 있다. 이는 개인 정보 보호와 데이터 보안에 대한 사용자 우려를 줄이기 위한 조치로 해석될 수 있다.
하지만 이 기능 도입에 따른 보안 문제도 제기되고 있다. 일부 전문가들은 메모리 기능이 악용될 가능성이 있다고 경고하고 있으며, 해킹을 통해 사용자의 데이터를 탈취할 수 있는 방법이 발견된 사례도 있다. 테크크런치는 챗GPT와 제미나이의 메모리 기능이 적절한 안전장치 없이 설계될 경우 심각한 보안 문제를 초래할 수 있다고 분석하였다.
정보 유출의 위험성은 기업과 사용자 모두에게 큰 우려 사항이다. 기업은 이러한 기술을 도입함에 있어 누가, 무엇을 어떻게 사용할 수 있는지를 명확히 정의하고, 안전장치를 강화해야 한다. 이러한 관점에서 데이터 암호화, 사용자 인증, 접근 제한 등의 보안 조치를 강화하는 것이 필수적이다.
정확한 데이터 관리를 통해 기업은 사용자에게 신뢰를 줄 수 있지만, 사용자 스스로도 자신의 데이터를 어떻게 다룰 것인지에 대한 책임과 경각심을 가져야 한다. AI 메모리 기능이 가져오는 오랜 기억력의 이점과 함께, 그로 인한 심각한 보안 문제 또한 간과해서는 안 된다. 따라서 서비스 제공자는 기술 발전에 따른 잠재적인 리스크 평가를 지속적으로 해야 할 필요가 있다.
향후 이러한 메모리 기능이 AI의 개인화 경험을 어떤 방향으로 발전시킬지는 주목할 만한 과제이다. 사용자 맞춤형 서비스를 제공하면서도 보안과 개인 정보 보호를 동시에 충족시키는 것이 AI 기술 발전의 중요한 이슈로 떠오르고 있다. 이러한 균형을 어떻게 맞출지는 앞으로의 연구와 기술 개발에 의해 결정될 것이다.
│
이 포스트는 피시아(PHYSIA) 사에서 운영하는 게임투비즈(GameToBiz) R&D 블로그에서 작성되었으며, 공공의 이익에 기여하는 목적을 제외한 다른 용도의 무단 배포 및 수정을 금합니다. 참조 - 피시아(PHYSIA), 게임투비즈(GameToBiz), 게임메이커.KR, 게임S/W에이전시, 저널CTL코리아