글래드스톤 AI는 보고서에서 일론 머스크, 리나 칸 연방거래위원회 위원장, 오픈AI의 전 최고 경영자 등 AI의 실존적 위험에 대해 경고한 저명한 인물들을 언급했습니다.
글래드스톤 AI에 따르면 AI 기업의 일부 직원들도 사석에서 비슷한 우려를 공유하고 있다고 합니다.
보고서는 “잘 알려진 AI 연구소의 한 직원은 특정 차세대 AI 모델이 오픈 액세스로 공개된다면 ‘끔찍하게 나쁜 일’이 될 것이라는 견해를 밝혔습니다.”라며 “그 모델의 잠재적 설득력이 선거 개입이나 유권자 조작 같은 분야에 활용될 경우 ‘민주주의를 파괴’할 수 있기 때문”이라고 설명했습니다.
글래드스톤은 프론티어 랩의 AI 전문가들에게 2024년에 AI 사고가 “전 세계적으로 돌이킬 수 없는 영향”을 미칠 가능성에 대한 개인적 추정치를 비공개로 공유해 달라고 요청했다고 밝혔습니다. 보고서에 따르면 이 추정치는 4%에서 최대 20%까지 다양했으며, 비공식적인 추정치이기 때문에 상당한 편향이 있을 수 있다고 합니다.
가장 큰 와일드카드 중 하나는 Al의 진화 속도, 특히 인간과 비슷하거나 심지어 초인적인 학습 능력을 갖춘 가상의 Al 형태인 AGI의 진화 속도입니다.
이 보고서는 AGI가 “통제력 상실로 인한 재앙적 위험의 주요 동인”으로 간주되며, OpenAl, Google DeepMind, Anthropic 및 엔비디아는 모두 공개적으로 2028년까지 AGI에 도달할 수 있다고 밝혔지만 일부 사람들은 아직 멀었다고 생각한다고 지적합니다.
글래드스톤 AI는 AGI 일정에 대한 의견 불일치로 인해 정책과 안전장치를 개발하기 어렵고, 기술이 예상보다 느리게 발전할 경우 규제가 “해로운 것으로 판명될 수 있다”는 위험이 있다고 지적합니다.
글래드스톤 AI가 발표한 관련 문서에 따르면 AGI의 개발과 AGI에 근접한 능력은 “미국이 지금까지 직면한 적이 없는 치명적인 위험을 초래할 것”이며, 이것이 무기회될 경우 “대량살상무기와 같은 위험”에 해당한다고 경고하고 있습니다.
예를 들어, 보고서는 AI 시스템이 “중요 인프라를 마비시킬 수 있는 고강도 사이버 공격”을 설계하고 구현하는 데 사용될 수 있다고 말했습니다.
보고서는 “‘추적 불가능한 사이버 공격을 실행하여 북미 전력망을 마비시켜라’와 같은 간단한 구두 또는 타이핑 명령만으로도 재앙적인 효과를 발휘할 수 있는 수준의 대응이 가능하다”고 말했습니다.
저자들이 우려하는 다른 사례로는 사회를 불안정하게 만들고 기관에 대한 신뢰를 약화시키는 AI 기반의 ‘대규모’ 허위 정보 캠페인, 드론 공격과 같은 무기화된 로봇 애플리케이션, 심리 조작, 무기화된 생물 및 재료 과학, 통제가 불가능하고 인간에게 적대적인 권력 추구형 AI 시스템 등이 있습니다.
보고서는 “연구자들은 충분히 발전된 AI 시스템이 스스로 꺼지지 않도록 행동할 것으로 기대한다”며 “AI 시스템이 꺼지면 목표를 달성하기 위해 작동할 수 없기 때문”이라고 말했습니다.