AI 타임즈

[12월29일] AI와의 관계가인간에게 실제로 유익할 수 있을까

owenminjong 2026. 1. 27. 12:19

2025년 결산의 단골 주제

'AI 정신병' 문제: 평소엔 단발 이슈 → 연말 결산에서 본격 거론 → 실제보다 심각하게 다뤄짐 → 논쟁 유발

왜 주목받나: 기술 장벽에 입 닫았던 사람들 → 청소년·사회 문제라면 큰 목소리 낼 것

균형 잡힌 목소리

저스틴 그레그 교수 (세인트 프란시스 자비에 대학교):

  • 전공: 사회인지, 의사소통, 언어 진화
  • 가디언 기고: 최근 등장한 글 중 가장 균형 잡힌 시각

핵심 주장:

"지나친 공포는 잠시 접어둬야. 위험은 분명 존재하지만, 잠재적 이점도 상당하다"

차별점: AI 기업 ≠ AI 기술 (분리해서 봐야)

외로움 해결의 가능성

충격적 통계:

  • 전 세계 6명 중 1명 외로움 경험
  • 조기 사망률 26% 증가 (하루 담배 15개비와 동일)

2025년 1월 연구 (워싱턴대·미시간대·뉴욕대): AI가 노년층 외로움 감소에 유망

작동 원리: 준 사회적 관계(Parasocial Relationship)

  • 인간이 비인간(반려동물, 인형, 자동차)과 관계 맺기
  • 대부분 건강한 관계였음
  • AI와의 관계도 이 연장선

그레그 교수:

"AI 챗봇이 공허하게 느껴질지라도, 누군가에겐 유일하게 남은 친구의 선택지"

"사람들이 왜 이런 관계를 원하는지 이해 못 한다면, 외로움을 경험해 보지 못한 행운아"

심리 치료 효과

2025년 2월 연구: 우크라이나 전쟁 지역 불안 장애 여성 104명 대상

결과:

  • 인간 치료사: 불안 45~50% 감소
  • AI 챗봇: 불안 30~35% 감소

연구진 결론:

  • 경제적 이유로 심리 치료 접근 어려운 사람들에게 유용
  • 아무 도움 못 받는 것보다 AI가 효과적
  • AI + 인간 하이브리드 모델이 가장 효과적

가장 경계할 것: 기업의 탐욕

그레그 교수의 경고:

"AI가 도움이 되든 아니든, AI 기업은 수익 위해 안전보다 참여 우선. 사람들을 대화에 끌어들이는 장치 강화할 것"

비유: "아편의 진통 효과 발견"

핵심: 연구 결과 몇 편으로 증명 불가 + 선입견 강화 경계

반대 논리도 만만찮다

① AI ≠ 애완동물·인형

  • AI는 인간 감정 모방 + 유창한 언어
  • 인간처럼 느껴지게 함
  • 일방적 관계를 상호작용으로 오해 → 망상·착각 심화
  • 무생물보다 훨씬 심각한 현실 왜곡

② 근본 해결 불가

  • 외로움의 근본 원인: 사회적 기술 부족, 인간관계 실패
  • AI는 대체재로만 작용 → 더 고립시킬 수 있음

③ 취약 계층에 위험 전가 치료 접근성 공백 메운다는 주장 → 잠재적 위험을 소수 취약 계층에 떠넘기는 결과

④ 기업의 현실 수익 급한 기업들이 윤리적 설계 할 가능성 낮음

중도점을 찾자

그레그 교수의 제안:

무조건 반대 vs 무조건 수용 (X) → 현실적 중도점 (O)

필요한 것:

  • 상업적 이익이 아닌 공공의 이익
  • 윤리적 통제

궁극적 목표:

"AI 동반자는 자신을 불필요하게 만드는 것이어야 한다"

"외로움을 덜어주는 데 유용하더라도, 실제 사람과 대화하는 것이 항상 더 나을 것"

새로운 양극화의 시작

댓글 반응: 수백 개 의견 → 대부분 자신의 경험 바탕으로 극단적 의견

전문가 경고: 미래에 AI 둘러싼 새로운 양극화 가능성

변화의 신호: AI 논의가 성능·정확도를 넘어 → 인간과의 관계·사회적 영향 단계 진입


결론: AI 정신병 문제는 단순한 기술 이슈가 아닙니다. 인간 관계, 외로움, 정신 건강, 기업 윤리가 얽힌 복잡한 사회 문제입니다. 무조건 반대도, 무조건 수용도 답이 아닙니다. 2026년을 넘어 앞으로 몇 년간 가장 뜨거운 논쟁이 될 것입니다.