본문 바로가기
자유게시판

보편적 기본소득이 필요하다 - AI '대부'

by godfeeling 2024. 5. 19.

'인공지능의 대부'로 불리는 컴퓨터 과학자는 정부가 AI가 불평등에 미치는 영향을 다루기 위해 보편적 기본소득을 확립해야 할 것이라고 말했습니다.

제프리 힌튼(Geoffrey Hinton) 교수는 BBC 뉴스나잇과의 인터뷰에서 “AI가 일상적인 일자리를 많이 빼앗아가는 것을 매우 걱정”하기 때문에 모든 시민에게 고정된 금액의 현금을 제공하는 혜택 개혁이 필요하다고 말했습니다.

그는 “다우닝가 사람들로부터 상담을 받았고 보편적 기본소득이 좋은 생각이라고 조언했다”고 말했다.

그는 AI가 생산성과 부를 증가시킬 것이라고 생각하지만 그 돈은 "일자리를 잃은 사람들이 아닌 부자들에게 돌아갈 것이며 이는 사회에 매우 좋지 않을 것"이라고 말했습니다.

힌튼 교수는 현재 폭발적인 인공지능의 이론적 기반을 형성하는 신경망의 선구자다.

작년까지 그는 Google에서 근무했지만 규제되지 않은 AI의 위험성에 대해 더 자유롭게 이야기하기 위해 거대 기술 기업을 떠났습니다.

보편적 기본소득 개념은 정부가 소득에 상관없이 모든 개인에게 정해진 급여를 지급하는 것을 의미합니다.

비평가들은 이것이 극도로 비용이 많이 들고 공공 서비스로부터 자금을 다른 곳으로 돌릴 뿐 아니라 반드시 빈곤 완화에 도움이 되지는 않을 것이라고 말합니다.

정부 대변인은 “보편적 기본소득을 도입할 계획은 없다”고 말했다.

힌튼 교수는 인류 멸종 수준의 위협이 나타나고 있다는 우려를 거듭 밝혔습니다.

그는 지난해의 발전 상황을 보면 정부가 AI의 군사적 사용을 억제할 의지가 없다는 것을 보여주었고, 급속한 제품 개발 경쟁으로 인해 기술 회사가 "안전에 충분한 노력"을 기울이지 않을 위험이 있다는 것을 의미했다고 말했습니다.

힌튼 교수는 "내 추측으로는 지금으로부터 5~20년 안에 AI가 장악하려는 문제에 직면하게 될 확률이 절반"이라고 말했다.

이는 우리가 "생물학적 지능보다 더 나은 형태의 지능을 만들 수 있었기 때문에 인간에게 "멸종 수준의 위협"을 초래할 수 있습니다. 이는 우리에게 매우 걱정스러운 일입니다.

그는 AI가 "진화"할 수 있으며 "자체적으로 더 많은 것을 만들 수 있는 동기를 얻기 위해" 자율적으로 "통제권을 얻는 하위 목표를 개발"할 수 있다고 말했습니다.

그는 텍스트를 생성하는 데 사용되는 AI 알고리즘의 일종인 대규모 언어 모델이 사기성을 선택했다는 증거가 이미 있다고 말했습니다.

그는 수천 개의 군사 목표물을 생성하기 위해 최근 AI를 적용한 것은 "아슬아슬한 쐐기형"이라고 말했습니다.

“제가 가장 걱정하는 것은 이들이 자율적으로 사람을 죽이는 결정을 내릴 수 있을 때입니다.”라고 그는 말했습니다.

힌튼 교수는 AI의 군사적 사용을 규제하기 위해서는 전쟁 중 인도적 처우에 대한 법적 기준을 확립하는 국제 조약인 제네바 협약과 유사한 것이 필요할 수 있다고 말했습니다.

"그러나 나는 매우 불쾌한 일이 일어나기 전까지는 그런 일이 일어나지 않을 것이라고 생각합니다"라고 그는 덧붙였습니다.

서구가 AI의 군사적 사용에 관해 러시아, 중국과 같은 독재 국가들과 함께 맨해튼 프로젝트(제2차 세계대전 중 핵무기 연구를 언급함) 스타일의 경쟁에 참여하고 있는지 묻는 질문에 힌튼 교수는 다음과 같이 대답했습니다. “[블라디미르 러시아 대통령] 푸틴 대통령은 다음과 같이 말했습니다. 몇 년 전, AI를 지배하는 사람이 세상을 지배하게 되었습니다. 그래서 나는 그들이 매우 열심히 일하고 있다고 생각합니다.

"다행히도 연구에서는 서구가 훨씬 앞서 있을 것입니다. 우리는 여전히 중국보다 약간 앞서 있을 것입니다. 하지만 중국은 더 많은 자원을 투입하고 있습니다. 따라서 군사적 활용 측면에서는 경쟁이 있을 것이라고 생각합니다."

그는 더 나은 해결책은 AI의 군사적 사용을 금지하는 것이라고 말했습니다.

댓글