Czy używanie AI w randkowaniu to oszustwo? Szczera odpowiedź

Ktoś zapytał mnie o to przy kolacji w zeszłym miesiącu. Zobaczył firmę na moim LinkedInie i chciał wiedzieć, czy nie czuję się dziwnie z tym, co budujemy. Pytanie było szczere, a uczciwa odpowiedź zajęła mi więcej czasu niż się spodziewałem.

Krótka wersja: myślę, że pytanie jest źle postawione. "Czy używanie AI w randkowaniu to oszustwo" jest zadawane tak, jakby AI było jedną rzeczą, a randkowanie drugą, i albo przekraczasz granicę moralną, albo nie. Prawdziwa odpowiedź zależy od tego, do czego tego używasz, co by poczuła druga osoba, gdyby wiedziała, i kim chcesz być w związku, który może z tego wyniknąć.

Oto dłuższa wersja, napisana przez kogoś z oczywistą stronniczością (tworzymy jedno z takich narzędzi) i próbującego mimo to być fair.

Dlaczego to pytanie boli

Instynkt "to może być oszustwo" pochodzi z czegoś realnego. Większość ludzi, zapytana wprost, powiedziałaby, że chce być lubiana za to, kim naprawdę jest. Strach przed randkowaniem polega na tym, że możesz nie wystarczyć. Strach przed AI polega na tym, że pozwala ci udawać, że wystarczasz.

Jest też umowa społeczna. Kiedy ktoś do ciebie pisze, zakładasz, że słowa są jego. Kalibrowujesz swój obraz tej osoby na podstawie tych słów. Jeśli okazuje się, że słowa nie są jej, oceniałeś kogoś, kto nie istnieje, a właśnie tego randkowanie miało unikać.

Oba te obawy są uzasadnione. Nie są głupie. Każdy, kto pracuje w tej branży i udaje, że nie są, sprzedaje ci coś.

Dwa sposoby, w jakie AI jest używane w randkowaniu

Tutaj pytanie się rozgałęzia, bo pod tym samym szyldem dzieją się dwie bardzo różne rzeczy.

Wariant pierwszy: AI jako tezaurus

Masz coś do powiedzenia. Nie wiesz jak to powiedzieć. Sformułowanie nie przychodzi. Prosisz AI o kilka opcji, czytasz je, wybierasz jedną, poprawiasz aż brzmi jak ty. Myśl jest twoja. Intencja jest twoja. Reakcja, którą chciałeś wywołać, jest twoja. AI wykonuje pracę znajdowania słów.

To mniej więcej to, co każdy pisarz w historii robił z redaktorami, znajomymi i słownikami. To co robi sprawdzanie pisowni. To co robi podpowiadanie tekstu na telefonie od piętnastu lat. Żadnego z nich nie nazywamy oszustwem. To po prostu narzędzia, które pomagają myśli trafić na stronę.

Wariant drugi: AI jako ghostwriter

Nie masz nic konkretnego do powiedzenia. Wklejasz rozmowę, AI mówi ci co by zadziałało, i to wysyłasz. Reakcja drugiej osoby nie jest na ciebie, jest na statystycznie najlepszą odpowiedź. Jeśli podoba im się wiadomość, polubili instynkt AI, nie twój. Jeśli zakochują się w wiadomości, zakochują się we wzorcu, nie w osobie.

To jest bliższe ghostwritingowi. Wynik może być gładki, ale połączenie jest zapożyczone z zewnątrz. A kiedy w końcu spotkacie się osobiście, przepaść między gładkością AI a twoim prawdziwym rejestrem wyjdzie na jaw, czasem boleśnie.

Większość intuicji "to może być oszustwo" śledzi drugi wariant, nie pierwszy. Problem polega na tym, że to samo narzędzie może być używane w oba sposoby i tylko użytkownik wie, co faktycznie się dzieje.

Test, który naprawdę działa

Najczystszy sposób, jaki znalazłem, żeby o tym myśleć, dla siebie i dla ludzi używających naszego narzędzia: wyobraź sobie, że rozmowa idzie dobrze, spotykasz się, a po kilku randkach temat wypływa. Pytają, czy kiedykolwiek używasz AI do wiadomości. Jaka jest odpowiedź, którą możesz dać bez mrugnięcia okiem?

Jeśli odpowiedź brzmi "tak, czasem kiedy nie wiem jak coś sformułować, generuję kilka opcji i wybieram co pasuje", większość ludzi jest z tym całkowicie okej. Pasuje to do tego, jak sami myślą o decyzjach dotyczących sformułowań.

Jeśli odpowiedź wymagałaby dłuższej historii o tym, jak cała wczesna rozmowa była przez AI, to jest wersja użycia, która tworzy dług. Niekoniecznie kłamstwo, ale różnica między tym, co myśleli, że cię poznali, a tym, co faktycznie poznali.

Test to nie "czy użyłeś AI." To "czy powiedziałbyś im o tym."

Przydatna perspektywa Narzędzia, które chętnie byś wspomniał później, są w porządku. Narzędzia, które byś ukrył, robią coś innego.

A co z prawem drugiej osoby do wiedzy?

To jest trudniejsza część. Nawet jeśli twoje użycie mieści się w kategorii "tezaurus", czy mają prawo wiedzieć, że AI pomogło?

Uczciwa odpowiedź jest taka, że prawie nikt nie ujawnia każdego narzędzia, którego używa. Ludzie idą do znajomych po rady, co napisać. Przepisują swoje wersje robocze. Pokazują rzeczy swojej grupowej rozmowie. Trenerzy randkowi istnieją i ludzie płacą im dokładnie za ten rodzaj pisania. Kategoria "pomoc w tym, co napisać" jest starsza niż smartfony.

Nowe jest tempo i skala. Znajomy może pomóc przy trzech wiadomościach tygodniowo. AI może pomóc przy trzydziestu. Ta różnica ma znaczenie, bo w skali "czasem dostaję pomoc" staje się "pomoc wykonuje większość pracy." To jest granica, na którą wskazuje test z poprzedniej sekcji.

Prawo do wiedzy staje się istotne, gdy zmienia obraz sytuacji. Jeśli rozsądnie mogliby poczuć się wprowadzeni w błąd przez to, ile z rozmowy pochodzi z narzędzia, przekroczyłeś granicę, przy której warto czuć się niekomfortowo.

Prawdziwa obawa: kalibracja

Oto część, którą większość artykułów pomija. Głębsze ryzyko nie jest moralne, jest praktyczne. Rzecz, którą AI może zepsuć, to nie etyka, to kalibracja.

Randkowanie działa, bo dwie osoby pokazują sobie szorstkie wersje siebie i decydują, czy chcą więcej. Jeśli twoja szorstka wersja jest mocno przefiltrowana przez AI, osoba, którą w końcu spotykasz, podejmuje decyzję na podstawie kogoś, kto nie do końca istnieje. Podoba im się wersja z wygładzonymi krawędziami. Prawdziwy ty, na krześle naprzeciwko nich, ma inne krawędzie. Ta przepaść jest miejscem, gdzie żyje większość rozczarowania randkami z aplikacji.

To jest praktyczny argument przeciwko używaniu AI jako ghostwritera. Nie chodzi o to, że zrobiłeś coś moralnie złego. Chodzi o to, że utrudniłeś właściwej osobie rozpoznanie cię i ułatwiłeś złej osobie połączenie z twoim fantomem. Obie są stratami.

Używanie AI jako tezaurusa w większości unika tego problemu, bo kalibracja tego, kim jesteś, nadal pochodzi od ciebie. Wybierasz, co powiedzieć. Po prostu dostajesz pomoc w tym, jak to powiedzieć.

Przypadki, w których AI jest prawie zawsze okej

Żeby być konkretnym, oto przypadki użycia, z którymi prawie wszyscy, z którymi rozmawiałem, zgadzają się, że pomoc AI nie przekracza granicy.

Przypadki, gdzie AI zaczyna przekraczać granicę

A oto wzorce użycia, które zbliżają się do terytorium, które słusznie budzi niepokój.

Uczciwe zastrzeżenie

Tworzymy narzędzie w tej kategorii. Nie jesteśmy neutralni. Zbudowaliśmy je z myślą o przypadku użycia jako tezaurus, dlatego nasze sugestie pokazują trzy lub cztery opcje zamiast jednej autopilotowej odpowiedzi, i dlatego krok edycji pozostaje w rękach użytkownika. Produkt jest ukształtowany przez przekonanie, że przemyślana wersja tego jest w porządku i warta dobrego wykonania.

Możemy się mylić. Granica między "tezaurusem" a "ghostwriterem" jest czymś, co każda osoba rysuje prywatnie, a elegancki interfejs może ją zamazać. Uczciwa wersja marketingu takiego produktu polega na powiedzeniu, że odpowiedzialność za pozostanie po pomocnej stronie granicy leży częściowo w gestii użytkownika, i że powinniśmy pomagać tam, gdzie możemy.

Z naszej strony oznacza to, że nie obiecujemy, że AI jest "twoim głosem." Nie jest. AI nie ma twojego głosu, nie zna twojej historii i nie powinno mu się ufać w tych kwestiach. Obiecujemy sugerować opcje, które są dobrym punktem wyjścia. Głos pojawia się, gdy edytujesz.

Jeśli chcesz pomocy, oto wersja, w którą wierzymy. Reply With AI sugeruje opcje. Wybierasz. Edytujesz aż brzmi jak ty. Myślenie jest twoje. Pomoc jest szybka.

Wypróbuj za darmo

Co inni ludzie faktycznie myślą

Ciekawą rzeczą w tym pytaniu jest to, jak bardzo odpowiedź zależy od tego, jak pytanie jest zadane.

Jeśli zapytasz "czy przeszkadzałoby ci, gdyby twoja randka używała AI do pisania niektórych wiadomości", większość ludzi mówi tak, przeszkadzałoby. Jeśli zapytasz "czy przeszkadzałoby ci, gdyby twoja randka czasem prosiła AI o pomoc w sformułowaniu wiadomości, przy której utknęła", większość ludzi mówi nie. To samo zachowanie. Inne sformułowanie. Inna reakcja.

Ta przepaść jest realna i warto się przy niej zatrzymać. Sugeruje, że moralna treść tutaj jest bliższa "czy zastąpiłeś siebie" niż "czy użyłeś narzędzia." Ludzie dbają o to, czy byłeś tam. Nie wydaje się, żeby tak bardzo dbali o sprawdzanie pisowni.

Końcowa myśl

Jeśli przeczytałeś to wszystko licząc na czystą odpowiedź, przepraszam. Czysta odpowiedź jest taka, że "czy używanie AI to oszustwo" nie jest pytaniem tak-lub-nie, i każdy artykuł, który udaje inaczej, albo sprzedaje AI, albo sprzedaje oburzenie. Prawdziwe pytanie brzmi: czy czułbyś się komfortowo mówiąc im o tym później. Jeśli tak, prawdopodobnie jest w porządku. Jeśli nie, to sygnał, którego warto posłuchać.

Druga końcowa myśl, powiedziana dosadniej: wersja randkowania, gdzie próbujesz zrobić dobre wrażenie na tyle, żeby nikt nie dowiedział się, kim naprawdę jesteś, jest gorszą wersją randkowania. Narzędzia, które pomagają ci być bardziej klarownym, są przydatne. Narzędzia, które pomagają ci być mniej sobą, robią ci coś, co jest większe niż etyka. Skracają tę część twojego życia, w której ktoś mógłby się w tobie naprawdę zakochać.

Dobra wersja AI tutaj pomaga ci do tego dążyć. Zła wersja pomaga ci przed tym uciekać. Ten sam produkt. Dwa wyniki. Twoim zadaniem jest wiedzieć, którego używasz danego dnia. Naszym zadaniem jest budowanie wersji, która sprawia, że dobry wynik jest łatwiejszy, a zły trudniejszy.

Bardziej praktyczny przewodnik po tej granicy w rzeczywistym użyciu znajdziesz w naszym artykule o jak używać AI w randkowaniu bez brzmienia jak bot.

Pierwszy tydzień Pro na nasz koszt

Odbierz darmowy tydzień