지난달 저녁 자리에서 누군가 나에게 이 질문을 했다. LinkedIn에서 우리 회사를 봤는데, 우리가 만들고 있는 것에 대해 이상하게 느끼지 않냐고. 진심 어린 질문이었고, 솔직한 대답을 생각하는 데 예상보다 시간이 걸렸다.
짧게 요약하면, 나는 질문의 틀 자체가 잘못됐다고 생각한다. "데이팅에 AI 쓰는 게 반칙인가요"는 AI가 하나의 것이고 데이팅이 하나의 것인 것처럼 묻는다. 도덕적 선을 넘느냐 마느냐로. 진짜 대답은 어디에 쓰느냐, 상대방이 알았을 때 어떻게 느낄 것인가, 그리고 그 관계에서 어떤 사람이 되고 싶은가에 달려 있다.
여기 더 긴 버전이 있다. 명백한 편견이 있는 사람이(우리가 이런 도구를 만드니까) 그래도 공정하게 써보려고 한 글이다.
왜 이 질문이 날카롭게 느껴지는가
"이게 반칙일 수도 있겠다"는 직감은 진짜 어딘가에서 온다. 대부분의 사람들은 직접 물어보면, 실제 자신의 모습으로 좋아해지기를 원한다고 한다. 데이팅의 공포는 내가 충분하지 않을 수 있다는 것이다. AI에 대한 두려움은 그런 척할 수 있게 해준다는 것이다.
사회적 계약도 있다. 누군가가 문자를 보내면, 그 말이 상대방의 것이라고 가정한다. 그 말들을 기반으로 그 사람이 어떤 사람인지 가늠한다. 그 말들이 사실 상대방의 것이 아니라면, 존재하지 않는 사람에 대한 판단을 해온 것이다. 그게 바로 데이팅이 피하려는 것이다.
두 가지 모두 유효한 우려다. 터무니없는 게 아니다. 이 분야에서 일하는 사람 중 그렇지 않은 척하는 사람은 뭔가를 팔고 있는 것이다.
데이팅에 AI가 쓰이는 두 가지 방식
여기서 질문이 나뉜다. 같은 이름 아래 매우 다른 두 가지가 일어나고 있기 때문이다.
방식 1: AI를 유의어 사전처럼 쓰기
하고 싶은 말이 있다. 어떻게 말해야 할지 모르겠다. 문구가 떠오르지 않는다. AI에 몇 가지 옵션을 요청하고, 읽어보고, 하나를 고르고, 내 말처럼 들릴 때까지 수정한다. 생각은 내 것이다. 의도는 내 것이다. 원하는 반응도 내 것이다. AI는 단어를 찾아주는 일을 한다.
이건 역사상 모든 작가가 편집자, 친구, 사전으로 해온 것과 거의 같다. 맞춤법 검사가 하는 것이다. 스마트폰의 예측 문자가 15년 동안 해온 것이다. 우리는 그것들 중 어느 것도 반칙이라고 부르지 않는다. 그냥 생각이 글에 닿을 수 있게 도와주는 도구들이다.
방식 2: AI를 대필 작가처럼 쓰기
특별히 하고 싶은 말이 없다. 대화를 붙여넣으면 AI가 뭐가 먹힐지 알려주고, 그걸 보낸다. 상대방이 받는 반응은 나에 대한 것이 아니라, 통계적으로 가장 좋은 답변에 대한 것이다. 메시지가 마음에 들면 AI의 본능을 좋아한 것이지 나를 좋아한 게 아니다. 메시지에 빠져들면 패턴에 빠진 것이지 사람에게 빠진 게 아니다.
이건 대필에 가깝다. 결과물은 매끄러울 수 있지만, 연결은 다른 곳에서 빌려온 것이다. 그리고 결국 직접 만났을 때, AI의 매끄러움과 실제 내 모습의 간극이 드러난다. 때로는 꽤 심하게.
대부분의 "이게 반칙인가" 직감은 첫 번째가 아니라 두 번째를 추적하고 있다. 문제는 같은 도구가 두 가지 방식으로 모두 쓰일 수 있고, 어느 쪽이 일어나고 있는지는 사용자만 안다는 것이다.
실제로 통하는 테스트
나 자신과 우리 도구를 쓰는 사람들을 위해 내가 찾은 가장 명확한 방법이 있다. 대화가 잘 되고, 만나고, 몇 번 데이트 후에 이 주제가 나온다고 상상해보자. AI로 문자를 써본 적 있냐고 묻는다. 흔들리지 않고 줄 수 있는 대답이 뭔가?
만약 대답이 "응, 가끔 어떻게 표현해야 할지 모를 때 몇 가지 옵션을 만들어서 맞는 걸 골라"라면, 대부분의 사람들이 완전히 괜찮다고 한다. 자신도 표현 결정에 대해 비슷하게 생각하기 때문이다.
만약 대답이 초반 대화 전체가 AI였다는 긴 이야기가 되어야 한다면, 그건 빚을 만드는 사용 방식이다. 거짓말은 아닐 수 있지만, 상대방이 알게 됐다고 생각한 것과 실제로 알게 된 것 사이의 차이가 된다.
테스트는 "AI를 썼는가"가 아니다. "그들에게 말할 것인가"다.
유용한 프레임 나중에 기꺼이 언급할 수 있는 도구는 괜찮다. 숨기고 싶은 도구는 다른 무언가를 하고 있는 것이다.
상대방이 알 권리는?
이게 더 까다로운 부분이다. 내 사용이 "유의어 사전" 범주에 있더라도, 상대방이 AI의 도움을 받았다는 걸 알 권리가 있을까?
솔직한 대답은, 자신이 사용하는 모든 도구를 공개하는 사람은 거의 없다는 것이다. 사람들은 문자 내용에 대해 친구들에게 조언을 구한다. 초안을 다시 읽는다. 단톡방에서 의견을 묻는다. 연애 코치가 존재하고, 사람들은 정확히 이런 종류의 글쓰기를 도와달라고 돈을 낸다. "문자 내용에 대한 도움" 범주는 스마트폰보다 오래됐다.
새로운 건 속도와 규모다. 친구는 일주일에 세 개의 메시지를 도와줄 수 있다. AI는 서른 개를 도와줄 수 있다. 그 차이가 중요한데, 규모에서 "가끔 도움을 받아"가 "도움이 대부분의 일을 한다"가 되기 때문이다. 그게 이전 섹션의 테스트가 가리키는 선이다.
알 권리는 그림이 바뀔 때 의미 있어진다. 대화의 상당 부분이 도구에서 왔다는 걸 알았다면 합리적으로 오도됐다고 느낄 것 같다면, 불편해할 만한 영역에 들어선 것이다.
진짜 우려: 보정
대부분의 글이 건너뛰는 부분이 여기 있다. 더 깊은 위험은 도덕적인 것이 아니라 실용적인 것이다. AI가 망칠 수 있는 건 윤리가 아니라 보정이다.
데이팅이 작동하는 이유는 두 사람이 서로에게 거친 자신의 모습을 보여주고 더 원하는지 결정하기 때문이다. 거친 버전이 AI를 통해 많이 필터링된다면, 결국 만나는 사람은 실제로 존재하지 않는 누군가를 기반으로 결정을 내리는 것이다. 그들은 모서리가 부드러워진 버전을 좋아한다. 맞은편 의자에 앉아 있는 실제 나는 다른 모서리를 갖고 있다. 그 간극이 앱 기반 데이팅에서 실망의 대부분이 사는 곳이다.
이게 AI를 대필 작가로 쓰는 것에 반대하는 실용적 이유다. 도덕적으로 잘못된 것을 한 게 아니다. 맞는 사람이 나를 알아보기 어렵게 만들고, 잘못된 사람이 나의 환영과 유대를 맺기 쉽게 만든 것이다. 둘 다 손실이다.
AI를 유의어 사전처럼 쓰는 건 대체로 이 문제를 피한다. 내가 누구인지에 대한 보정이 여전히 나에게서 나오기 때문이다. 뭘 말할지 선택하는 건 나다. 그걸 말하는 데 도움을 받을 뿐이다.
AI가 거의 항상 괜찮은 경우들
구체적으로 말하자면, 내가 이야기한 거의 모든 사람들이 AI 지원이 선을 넘지 않는다고 동의하는 사용 사례들이 있다.
- 막혔을 때. 10분 동안 메시지를 들여다보고 있다. AI가 세 가지 옵션을 준다. 하나를 골라, 수정해서 보낸다. AI 없이는 더 나쁜 걸 보내거나 아무것도 보내지 않았을 것이다.
- 혼란스러운 상황 읽기. 상대방이 뭔가 모호한 것을 보냈다. 다정한 건지 비꼬는 건지 모르겠다. AI에게 읽어달라고 하는 건 친구에게 묻는 것과 같다. 그냥 더 빠를 뿐이다.
- 표현 다듬기. 내가 말하려는 거의 맞는 것을 썼다. AI가 그걸 다듬어준다. 생각은 이미 거기 있었다.
- 힘든 순간을 신중하게 다루기. 부드럽게 말해야 하는데 부드러움에 능숙하지 않다. AI가 나쁜 상황을 더 나쁘게 만들지 않는 표현을 찾는 데 도움을 줄 수 있다.
AI가 선을 넘기 시작하는 경우들
그리고 사람들이 이상하게 느끼는 게 맞는 영역에 가까워지는 사용 패턴들이 있다.
- 성격 생성. 실제로 갖고 있지 않은 특성을 투영하기 위해 AI를 쓰는 것. 직접 만났을 때 유지할 수 없는 재치. 만나면 사라지는 자신감. 이건 필연적인 실망을 설정하는 버전이다.
- 매칭 스팸. 모든 채팅을 AI를 통해 돌려 답장을 극대화하지만, 대부분에 실제 관심이 없다. 상대방은 사람이 아닌 도구에게 낚이고 있는 것이다.
- 감정적 순간 외주화. 상대방이 힘든 것에 대해 털어놨다. AI에 붙여넣고 제안된 답변을 보낸다. 그들은 나와 연결됐다고 생각한다. 유능한 낯선 사람과 연결된 것이다.
- 작업 대체. 그냥 도움을 받는 게 아니라, AI를 너무 지속적으로 사용해서 실제로 커뮤니케이터로 성장하지 못하는 것. 결국 시작되는 관계는 문자와 능력이 맞지 않는 누군가와의 것이다.
솔직한 면책 조항
우리는 이 범주의 도구를 만든다. 중립적이지 않다. 유의어 사전 사용 사례를 염두에 두고 도구를 만들었다. 그래서 제안이 하나의 자동 조종 답변이 아닌 서너 개의 옵션을 보여주고, 편집 단계를 사용자의 손에 두는 것이다. 제품은 사려 깊은 버전이 괜찮고 잘 할 가치가 있다는 믿음으로 형성됐다.
우리가 틀릴 수도 있다. "유의어 사전"과 "대필"의 경계는 각자 사적으로 긋는 것이고, 매끄러운 인터페이스가 그걸 흐릿하게 만들 수 있다. 우리 같은 제품을 마케팅하는 솔직한 버전은 선의 도움이 되는 쪽에 머무르는 책임이 부분적으로 사용자에게 있고, 우리가 할 수 있는 곳에서 도와야 한다고 말하는 것이다.
우리 입장에서, 그건 AI가 "당신의 목소리"라고 약속하지 않는다는 것을 의미한다. 그렇지 않다. AI는 당신의 목소리를 갖고 있지 않고, 당신의 역사를 모르고, 신뢰해서는 안 된다. 우리는 좋은 출발점이 되는 옵션을 제안하겠다고 약속한다. 목소리는 당신이 편집할 때 일어난다.
도움을 원한다면, 우리가 믿는 방식이 여기 있다. Reply With AI가 옵션을 제안한다. 당신이 고른다. 당신처럼 들릴 때까지 편집한다. 생각은 당신 것이다. 도움은 빠르다.
무료로 시작하기사람들이 실제로 어떻게 생각하는가
이 질문에 대해 물어보면 흥미로운 점은, 질문을 어떻게 하느냐에 따라 얼마나 달라지는가다.
"데이트 상대가 일부 메시지를 AI로 써도 괜찮냐고" 물으면, 대부분의 사람들이 그렇다, 신경 쓰인다고 한다. "데이트 상대가 막혔을 때 가끔 AI에게 메시지 표현에 도움을 받아도 괜찮냐고" 물으면, 대부분의 사람들이 괜찮다고 한다. 같은 행동이다. 다른 프레이밍이다. 다른 반응이다.
그 간극은 실제고 생각해볼 만하다. 여기서 도덕적 내용이 "도구를 썼느냐"보다 "자신을 대체했느냐"에 가깝다는 걸 시사한다. 사람들은 당신이 거기 있었는지 신경 쓴다. 맞춤법 검사에는 그다지 신경 쓰지 않는 것 같다.
마지막 생각
이 전체를 읽고 깔끔한 답을 기대했다면, 미안하다. 깔끔한 답은 "데이팅에 AI 쓰는 게 반칙인가"가 예스/노 질문이 아니라는 것이고, 그렇지 않은 척하는 글은 AI를 팔거나 분노를 팔고 있는 것이다. 진짜 질문은 나중에 그들에게 편하게 말할 수 있는지다. 그렇다면 아마 괜찮다. 아니라면 그건 귀 기울일 신호다.
더 솔직하게 말하는 다른 마지막 생각이 있다. 실제 자신이 발견되지 않을 만큼 인상적이려고 하는 데이팅 버전은 더 나쁜 데이팅이다. 더 명확하게 표현할 수 있게 도와주는 도구는 유용하다. 자신을 덜 드러나게 도와주는 도구는 윤리보다 더 큰 무언가를 하고 있다. 누군가 진정으로 당신과 사랑에 빠질 수 있는 삶의 부분을 단축시키고 있다.
여기서 AI의 좋은 버전은 그걸 향해 손을 뻗도록 도와주는 것이다. 나쁜 버전은 그것에서 숨도록 돕는다. 같은 제품이다. 두 가지 결과다. 특정 날 어느 쪽을 쓰고 있는지 아는 건 당신의 일이다. 좋은 결과를 더 쉽게 하고 나쁜 것을 더 어렵게 하는 버전을 계속 만드는 건 우리 일이다.
실제 사용에서의 선에 대한 더 실용적인 가이드는 봇처럼 들리지 않고 데이팅에 AI를 쓰는 법 글을 참고하자.