사람들이 ChatGPT를 잘못 쓸때마다 미칠 것 같다.

그건 정확도 100% 백과사전이 아니라고요!

펜슬을 내 하소연 장으로 써도 되는걸까

어쨌든 그냥 누군가 지나가다 읽으면서 알아채기라도 하면 감사하다는 마음으로 글을 쓴다…

ChatGPT는, 수많은 데이터를 가지고 종합해서 ‘말이 되도록’ 만들어내는 도구다. 심지어 대화를 나누는 도중에 내가 다른 정보를 주입해서 같은 질문에도 다른 답이 나올 수 있도록 하는 도구다. 같은 대답이 나와야 하는 경우에도 묻는 말이 조금 다르면 대답이 달라질 때도 있다.

이런 도구의 말을 별 다른 검증 없이 곧이 곧대로 믿어버리는 행동은 위험하다.

하지만 ChatGPT가 처음으로 대중에게 관심을 끌기 시작하면서 ‘인공지능’ 이라는 키워드, ‘빅데이터’ 라는 키워드, 그리고 이 도구가 생성해내는 답변의 ‘어문적’인 퀄리티가 높아서 사람들은 마치 ChatGPT의 답변이 정답인 것마냥 직접 정보를 찾아볼 생각도 않고 ‘질문’ - ‘답변’ - ‘수용’ 의 단계를 순식간에 해치운다.

다음은 내가 약간의 과장과 조정을 보태 ChatGPT에 질문하고 대답을 받은 결과다. (유명한 일례다. 거북선의 라이트닝볼트)

이 답변이 거짓이라는 건 다들 안다. 왜냐? 거북선은 역사에 쓰여있는게 한국인들의 공통 지식이고, 아이스 볼트는 현실에 없다는 것이 공통 지식이기 때문이다. 다시 말해, 우리는 이 “질문”의 전제 자체가 잘못되었다는 “지식”이 있기 때문에 저 답변 또한 잘못된 사실이라는 걸 “도출”해낼 수 있다.

하지만 만약, 전제 조건에 대해 애초에 알지 못한 상태에서 무언가가 궁금해 ChatGPT에게 질문을 한다? 그 질문이 올바른 질문인지도 알지 못한 채 ChatGPT가 전달한 답변을 믿는다면… 그리고 그 내용을 마치 진실처럼 사방팔방에 퍼트리고 그게 진실로 받아들여진다면?

진짜 이러면 안된다. 사람들의 사고 능력이 더 떨어지면 안된다, 정말로..

이런 도구가 있으면 편하다. 하지만 편하다는 말은 그 앞에 ‘내가 필요한 걸 내 수고가 들지 않고 빠르게 도출해내기 때문에’ 라는 표현이 숨어있다는 걸 잊지 말아야 한다.

ChatGPT는 영어 연습하기에 편하다. ‘내가 문법을 하나하나 찾아보지 않아도 영어를 기반으로 해서 만들어진 인공지능이고, 기타 등등의 이유가 있기 때문에’ 영어를 연습하기 편하다는 얘기다. 이미 간단한 문법류는 Grammarly나 MS Office Word의 문법체크 기능, 그 외 각종 문법 체크 툴에 의해 데이터가 다 쌓여있으니까.

하지만 만약 하고자 하는 영어 연습이 Slang류, 일부러 문법이 파괴된 채 사용하는 Meme 류라면 내가 ChatGPT를 신뢰할 수 있을까? 아니, 규칙이 딱 정해진 내용에서 벗어나는 순간 나는 ChatGPT를 절대 믿지 않는다.

개발자들이 ChatGPT를 많이 쓰는데는 다 이유가 있다. 그 사람들 머리에는 어떻게, 어떤 방식으로, 어떤 방향으로 엔지니어링을 할지 가닥을 잡아놓고 ChatGPT를 쓴다. 어디에? 사람이 기억하기에는 너무나도 많은 각종 명령, 함수 등을 ChatGPT가 알아서 목록에서 골라가지고 사용해 코딩을 대신 하는데에. 만약 위에서 내가 언급했던 ‘잘못된 질문이었다면?’ 이라든가, ‘잘못된 답변이라면?’의 경우에는 그 코드를 돌려보면 바로 오류가 나니 알 수 있다.

하지만 이 외에… 그러니까 마치 ChatGPT를 구글 검색 엔진처럼 쓰는 사람들은 아마 이 차이를 잘 못 느끼는 것 같다. 이 도구는 몰랐던 것을 알아낼 때 방향성을 제시해줄 수 있는 데는 탁월하지만, 이 도구가 제시하는 대답이 정답은 아니라는 걸…

이미 현대 사람들은 인터넷에 의해 각종 잘못된 정보들을 바라보면서 살아가고 있다. ChatGPT는 이를 더 가속화 하고 있으며 난 이런 사람들 (ChatGPT를 맹신하는 사람들)을 보게 될 때마다 속이 터진다. ChatGPT에게 물어보는 과정은 정보를 ‘직접’ 찾는게 아니다. 남에게, 그것도 그냥 정보의 선별 과정 없이 무작정 가져와서 습득한 기계에게 맡긴 것 뿐이다.

카테고리
#기타

댓글 0



추천 포스트