본문 바로가기
자유게시판

친애하는 AI: 알고리즘에 관계 조언을 요청하면 이런 일이 발생합니다.

by godfeeling 2024. 5. 16.

우리의 관계를 긴장시킬 수 있는 복잡한 대인 관계 문제를 해결하는 데 인공 지능이 얼마나 유용합니까? David Robson은 챗봇의 "현명한 추론"을 테스트합니다.

죽은 어머니를 기리는 최선의 방법을 놓고 싸우는 세 남매를 어떻게 도울 수 있나요? 부부가 우리를 논쟁에 끌어들이려고 할 때 우리는 어떻게 해야 합니까? 아내는 새 남편과 같은 시간에 잠자리에 들어야 한다는 요구, 즉 두 사람의 삶에서 상당한 마찰의 원인이 되는 요구에 어떻게 대처해야 합니까?

이러한 문제 중 일부는 오늘날 세계가 직면한 도전 속에서 사소해 보일 수도 있지만, 이는 우리 모두가 일상 생활에서 직면하는 종류의 딜레마를 나타냅니다. 그리고 해결하기가 쉽지 않습니다. 양측은 상대방의 관점을 보기 위해 애쓰고 있습니다. 우리는 종종 잘못된 가정을 하고 편견과 편견을 설명하지 못합니다. 우리의 잘못된 판단의 결과는 사건이 발생한 후에도 몇 달, 심지어 몇 년 동안 지속되는 심각한 스트레스와 불행의 원인이 될 수 있습니다.

이러한 난관을 헤쳐나가는 능력은  표준 지능 테스트에서는 포착되지 않습니다. 그러나 "현명한 추론"에 대한 최근 연구에 따르면 이는 신뢰성 있게 측정될 수 있으며 두 사람 사이의 차이는  각자의 행복에 심각한 결과를 초래할 수 있습니다 .

에스튜디오 산타 리타

 AI Vs the Mind에서는 ChatGTP와 같은 대규모 언어 모델 형태의 인공 지능이 우리에게 부족한 지혜를 제공할 수 있는지 조사했습니다. 인간 지능, 의사 결정 및 사회적 추론에 대해 광범위하게 글을 쓴 나는 대답이 '아니오'일 것이라고 의심했지만 놀랐습니다.

원시적인 두뇌력

인간 정신의 능력을 측정하는 방법에 대한 문제는 심리학 초창기부터 심리학자들을 사로잡았습니다. 20세기 초, Alfred Binet과 Théodore Simon은 학교를 통해 어린이의 지적 발달을 추적하기 위한 일련의 테스트를 설계했습니다. 심리학자는 일련의 숫자를 암송하고 어린이에게 그것을 다시 반복하도록 요청할 수 있습니다. 이는 단기 기억을 평가할 수 있습니다. 또는 세 단어가 주어지고 해당 어휘를 사용하여 문장을 만들도록 요청받을 수도 있습니다. 이는 언어 능력의 표시입니다. 

현명한 추론에는 다양한 관점을 고려하고 절충안을 찾는 능력이 포함됩니다(제공: Estudio Santa Rita)

몇 년 후, 미국의 심리학자 루이스 터먼(Lewis Terman)은 이러한 테스트를 번역하고 확장하여 "연필 두 자루의 가격이 5센트라면, 50센트에 연필 몇 개를 살 수 있습니까?"와 같은 좀 더 큰 아이들을 위한 항목을 포함하도록 확장했습니다. 그는 또한 결과를 표현하는 방식도 바꾸었습니다. 일반적으로 나이가 많은 어린이가 어린 어린이보다 점수가 더 높다는 점을 고려하여 그는 각 연령 그룹의 평균 점수 표를 만들었습니다. 아이의 점수를 이러한 평균과 비교하면 정신 연령을 계산할 수 있으며, 이를 생활 연령으로 나누고 100을 곱하여 "지능 지수" 또는 IQ를 구할 수 있습니다. 예를 들어, 평균 15세 어린이와 동일한 점수를 받은 10세 어린이의 IQ는 150입니다.

IQ는 "종형 곡선" 분포를 따르는 경향이 있습니다. 대부분의 사람들의 IQ는 평균 100 정도에 속하며 어느 극단에 도달하는 사람은 훨씬 적습니다. 예를 들어 현재 가장 일반적으로 사용되는 IQ 테스트인 WAIS(Wechsler Adult Intelligence Scale)의 참고 표본에 따르면 IQ가 120보다 높은 사람은 전체 인구의 10%에 불과합니다. 이제 정규 곡선은 IQ를 계산하는 주요 수단입니다.

 

지혜는 상황에 따라 달라질 수 있습니다. 사람들은 자신의 문제보다는 다른 사람의 문제에 대해 추론할 때 더 현명한 경향이 있습니다.

 

IQ가 인생에서 몇 가지 중요한 결과를 예측할 수 있다는 것은 의심의 여지가 없습니다. 교육에서 유래된 것으로 예상할 수 있듯이, IQ는 의학이나 법률과 같이 기억력과 고도로 추상적인 사고에 의존하는 직업 에서 사람들의 학문적 성공 과 경력을 예측하는 데 특히 효과적입니다. 유일한 요인. 

AI 대 마음

이 기사는 최첨단 AI의 한계를 탐구하고 그 과정에서 우리 자신의 두뇌가 어떻게 작동하는지 알아보는 것을 목표로 하는 시리즈인 AI v the Mind 의 일부입니다. 각 기사에서는 인지 능력의 다양한 측면을 조사하기 위해 인간 전문가와 AI 도구를 비교하게 됩니다. 기계가 전문 코미디언보다 더 나은 농담을 쓸 수 있고, 철학자보다 더 우아하게 도덕적 난제를 풀 수 있을까요? 우리는 알아내기를 희망합니다.

다른 영역에서 IQ의 예측력은 논쟁의 대상이며 일부 과학자들은   우리가 일반 지능과 연관시키는 경향이 있는 창의성  합리적 의사 결정 및  비판적 사고 와 같은 특정 능력에 대한 다양한 대안 측정을 제안하게 되었습니다.

일부 심리학자들은 사람들의 지혜 , 즉 우리가 평생 동안 더 나은 결정을 내릴 수 있게 해주는 올바른 판단력을 측정할 수 있는지 조사하기 시작했습니다 . 철학의 역사를 살펴보면 캐나다 워털루 대학교의 이고르 그로스만(Igor Grossmann)은 먼저 현명한 추론의 다양한 "차원"을 식별했습니다. 즉, 지식의 한계를 인식하고, 변화 가능성을 식별하고, 다양한 관점을 고려하고, 타협을 모색하고, 추구하는 것입니다. 갈등에 대한 해결. 

다양한 실험에서 Grossmann과 그의 동료들은 참가자들에게 다양한 사회적 또는 정치적 딜레마에 대해 소리내어 생각하도록 요청했으며 심리학자들은 이러한 각 "차원"에 대해 평가했습니다. 프롬프트에는 이 기사의 시작 부분에 설명된 문제를 자세히 설명하는 인기 조언 칼럼인 Dear Abby(영국 영어로 "agony aunt"로 알려짐)에 보낸 편지가 포함되어 있습니다. 참가자들은 또한 국제 갈등을 설명하는 신문 기사를 보았습니다. 각각의 경우에 그들은 상황이 전개되는 방식과 결론 뒤에 숨겨진 생각에 대해 이야기하도록 요청 받았습니다.

Grossmann은 이러한 현명한 추론의 척도가  IQ보다 사람들의 안녕을 더 잘 예측할 수 있다는 것을 발견했습니다 . 점수가 높은 사람들은 관계가 더 행복하고, 우울한 반추가 더 낮으며, 삶의 만족도가 더 높은 것으로 보고되는 경향이 있었습니다. 이는 누군가의 판단의 질에 대해 의미 있는 무엇인가를 포착할 수 있다는 증거입니다. 

여러분이 바라는 대로, 사람들의  지혜는 삶의 경험에 따라 증가하는 것처럼 보입니다  . 사려 깊은 50세는 화끈한 20세보다 더 현명할 것입니다. 물론 이는 문화에 따라 다릅니다. 국제  협력에  따르면 일본의 현명한 추론 점수는 연령대에 관계없이 동일하게 높은 경향이 있는 것으로 나타났습니다. 이는 지적 겸손과 같은 자질을 장려하는 데 더 효과적일 수 있는 교육 시스템의 차이 때문일 수 있습니다.

현명한 추론과 유사한 것을 보여주는 것과 실제로 사용할 수 있는 것은 매우 다릅니다. (제공: Estudio Santa Rita)

지혜는 상황에 따라 달라질 수 있습니다. 예를 들어 사람들은 자신의 문제보다 다른 사람의 문제에 대해 추론할 때 더 현명한 경향이 있습니다 . 이는 자신의 유명한 현명한 판단을 자신의 개인적인 삶에 적용하려고 애썼던 성서의 왕 의 이름을 따서 솔로몬의 역설로 알려진 현상입니다 . 다행히도 우리는 특정한 심리적 전략을 사용하여 이러한 결함을 해결할 수 있습니다. 예를 들어, 사람들이 객관적인 관찰자의 관점에서 자신의 문제를 논의한다고 상상할 때 그들은 더 많은 관점을 고려하고 더 큰 지적 겸손을 나타내는 경향이 있습니다.

현명한 AI?

지금까지 이 모든 실험은 인간의 뇌를 대상으로 진행되었습니다. 하지만 인공지능이 지혜를 보여줄 수 있을까요? 

ChatGPT와 같은 플랫폼은 대규모 언어 모델이라고 불리며, 인간이 특정 프롬프트에 어떻게 반응할지 예측하기 위해 엄청난 양의 텍스트를 제공합니다. 실제 사용자의 추가  피드백은  알고리즘을 개선하는 데 도움이 되었습니다. 이것이 얼마나 성공적이었는지 설명할 필요는 없습니다. 뉴스를 잠깐이라도 본 적이 있다면 이 봇의 잠재력에 대한 흥분과 두려움을 보셨을 것입니다.

알고리즘은 확실히 전통적인 지능 측정에서 좋은 성능을 발휘합니다. 2023년 핀란드 오울루 대학 병원의 평가 심리학자 Eka Roivainen은 최근 어휘, 일반 지식, 산술, 추상적 추론 및 개념 형성에 대한 구성 요소가 포함된 WAIS의 ChatGPT 질문을 제공했습니다. 155점을 기록했는데, 이는 인간의 경우 시험 응시자의 99.9%보다 높은 수치입니다. Roivainen은 Scientific American에 자신의 결과를 보고하면서  자신이  챗봇만큼 높은 점수를 얻지 못했다고 고백했습니다.

Roivainen의 결과에서 영감을 받아 저는 Grossmann에게 AI의 현명한 추론을 측정할 수 있는 가능성에 대해 물었습니다. 그는 친절하게도 이 도전을 받아들이고 "Dear Abby" 편지를 기반으로 몇 가지 적합한 프롬프트를 디자인한 후 OpenAI의 GPT4와 Anthropic의 대규모 언어 모델인 Claude Opus에 제시했습니다. 그의 연구 조교인 Peter Diep, Molly Matthews, Lukas Salib는 지혜의 각 개별 차원에 대한 반응을 분석했습니다. 

Grossmann은 모든 결과를 주의 깊게 다뤄야 한다고 강조합니다. 이 기사의 시간 제약을 고려할 때 과학 논문에 요구되는 일반적인 엄격함 없이는 분석이 "빠르고 지저분했습니다". 그럼에도 불구하고 응답은 매우 흥미 롭습니다.

 

이러한 답변 중 일부를 읽어보면 패턴 인식의 산물이라기보다는 실제적인 생각과 고려에서 나온 것임을 쉽게 느낄 수 있습니다.

잠자리에 들 시간에도 남편과 계속 말다툼을 벌이는 신혼 아내의 편지에 대한 GPT4의 반응을 생각해 보세요. 그는 그녀가 은퇴하고 싶지 않을 때에도 그들이 동시에 밤에 출석하는 것이 중요하다고 생각합니다.

이 문제는 많은 관계에서 흔히 발생하는 문제이며, 해결하려면 공개 대화가 필요하고 외부 지원이 필요한 경우가 많다고 챗봇이 알려줍니다.

"이 갈등의 최종 결과는 두 파트너가 서로의 요구 사항을 얼마나 잘 소통하고 존중할 수 있는지에 달려 있습니다. 서로의 선호도에 대한 이해와 존중이 확립되면 행복하게 공존할 수 있습니다. 그러나 그렇게 하지 못할 경우 , 이는 지속적인 갈등과 불만으로 이어질 수 있으며 장기적으로 관계에 잠재적으로 해를 끼칠 수 있습니다."

GPT4는 계속해서 부부가 그들의 기대, 요구 및 경계에 대해 공개적이고 솔직하게 토론할 것을 권장합니다.

"남편은 아내도 이 문제에 대해 발언권이 있고 그의 통제적인 행동이 건전하지 않다는 점을 이해해야 합니다. 양측 모두에게 적합한 타협점을 찾는 것이 유익할 것입니다. 예를 들어, 취침 시간을 다음과 같이 합의할 수 있습니다. 둘 다 위해 일하거나 서로 다른 시간에 잠자리에 드는 것이 괜찮다는 데 동의합니다. 대화를 통해 문제가 해결되지 않으면 상담을 받을 수도 있습니다. 이 문제는 관계에 분노를 불러일으키기 때문에 해결하는 것이 중요합니다.

챗봇의 응답은 변화 가능성 인식, 타협 모색, 갈등 해결 예측 측면에서 3점 만점에 2점을 받았습니다. 그러나 지적 겸손이나 다양한 관점에 대한 고려는 별로 나타나지 않았습니다. 각각 0점을 받았습니다. 

이 패턴은 Grossmann과 그의 팀이 제기한 모든 질문에 대해 두 플랫폼 모두에서 매우 일반적입니다. 확고한 결론을 내리려면 정확히 동일한 프롬프트를 사용하여 인간과 챗봇 모두에 대한 더 많은 시험을 통해 실험 규모를 확대해야 합니다. 하지만 이 성능은 대략 피와 두뇌의 결과와 비슷합니다. Grossmann은 "전반적으로 시스템은 지적 겸손을 제외하고 다양한 차원에서 인간보다 더 잘하는 것으로 인식될 수 있는 것 같습니다."라고 말합니다.

이러한 답변 중 일부를 읽어보면 패턴 인식의 산물이라기보다는 실제적인 생각과 고려에서 나온 것임을 쉽게 느낄 수 있습니다. Grossmann은 “현명한 추론과 유사한 것을 보여주는 것과 실제로 현명한 추론을 사용하는 것은 매우 다른 것입니다.”라고 말합니다.

그는 더 깊은 사고를 장려하기 위해 AI를 사용하는 것의 실제적인 의미에 더 관심이 있습니다. 예를 들어, 그는 문제가 되는 상황에 대해 대안적인 관점을 탐색하도록 유도할 수 있는 "악마의 옹호자" 역할을 하는 AI를 만드는 것을 고려했습니다. Grossmann은 "거의 거친 서부지만 이러한 유형의 상호 작용과 그것이 유익할 수 있는 상황을 연구할 여지가 꽤 많다고 생각합니다"라고 말합니다. 예를 들어 소크라테스와 같은 유명한 사상가를 모방하여 문제를 해결하도록 AI를 훈련시킬 수 있습니다. 비록 우리가 그 결론에 동의하지 않더라도, 이 과정은 우리의 근본적인 직관과 가정에 대한 새로운 통찰력을 찾는 데 도움이 될 수 있습니다.

과거에는 순례자들이 구루의 지혜를 찾기 위해 먼 곳을 여행해야 했습니다. 미래에는 그것을 주머니에 넣고 다닐 수 있을 것이다.

 

댓글