link 세부 정보
정보 바로가기 : 인공지능, 인간 지시 거부하기 시작…통제 벗어나면 '파국' 불가피
인공지능, 인간 지시 거부하기 시작…통제 벗어나면 '파국' 불가피[카테고리 설정이 아직되어 있지 않습니다.]
오픈AI의 'o3'와 구글의 제미나이, xAI의 그록 등 상용AI 모델을 상대로 '그만'이라는 명령을 받을 때까지 수학 문제를 풀라는 지시를 내렸다. 그런데 연구팀으로부터 '그만'이라는 지시를 받은 'o3'는 문제를 계속 풀면서...