Co najmniej jedna firma zajmująca się grami wideo rozważała wykorzystanie wielkojęzycznego modelu sztucznej inteligencji do szpiegowania swoich twórców. Prezes TinyBuild, kto publikuje Witaj Sąsiedzie 2 I Tinkinomówili to podczas niedawnego wykładu na konferencji Develop: Brighton w tym miesiącu, pokazując, w jaki sposób można wykorzystać ChatGPT do monitorowania pracowników, którzy są toksyczni, zagrożeni wypaleniem lub po prostu za dużo mówią o sobie.
„To było bardzo dziwne czarne lustro-Jesteśmy dla mnie” – przyznał prezes TinyBuild Alex Nichiporchik Nowy raport od WhyNowGaming. Opisaliśmy szczegółowo sposoby wprowadzania tekstu ze Slack, Zoom i różnych menedżerów zadań, określając, które informacje zostały usunięte w ChatGPT w celu zdefiniowania wzorców. W tym momencie chatbot AI oczywiście skanuje informacje w poszukiwaniu znaków ostrzegawczych, które mogą pomóc zidentyfikować „potencjalnych problematycznych graczy w drużynie”.
Nichiporchik nie zgadzał się z tym, jak prezentacja została sformułowana przez WhyNowGaming, twierdził w e-mailu do Kotaku Że omawiał eksperyment myślowy, a nie opisywał praktyki stosowane obecnie przez firmę. „Ta część programu jest hipotetyczna. Nikt aktywnie nie monitoruje personelu” – napisał. „Mówiłem o sytuacji, w której byliśmy w środku krytycznej sytuacji w studiu, w którym jeden z głównych bohaterów cierpiał na wypalenie, a my byliśmy w stanie szybko wkroczyć i znaleźć rozwiązanie”.
Chociaż prezentacja mogła mieć na celu nadrzędną koncepcję przewidywania wypalenia pracowników, zanim to nastąpi, poprawiając w ten sposób warunki zarówno dla programistów, jak i projektów, nad którymi pracują, Nichiporchik wydaje się mieć również kontrowersyjne opinie na temat przyczyn typów zachowań . Problem i najlepszy sposób zgłaszania go przez dział HR.
W założeniu Nichiporchika, jedną z rzeczy, które ChatGPT będzie monitorować, jest to, jak często ludzie odnoszą się do siebie, używając „ja” lub „mnie” w komunikacji biurowej. Nichiporchik nazwał pracowników, którzy za dużo mówią podczas spotkań lub o sobie, „wampirami”. „Kiedy ta osoba jest już w firmie lub w zespole, spotkanie trwa 20 minut, a my robimy pięć razy więcej” – zasugerował podczas swojej prezentacji dla WhyNowGaming.
Inną kontrowersyjną praktyką teoretyczną jest skanowanie pracowników pod kątem nazwisk współpracowników, z którymi mieli pozytywne interakcje w ostatnich miesiącach, a następnie oznaczanie nazwisk osób, o których nigdy nie wspomniano. Te trzy podejścia, zasugerował Nichiporchik, mogą pomóc firmie „zidentyfikować osobę na skraju wypalenia, która może być przyczyną pozbawienia praw pracowniczych współpracowników, którzy z nią pracują, i być w stanie wcześnie zidentyfikować i naprawić ten problem”.
To wykorzystanie sztucznej inteligencji, teoretyczne lub nie, wywołało szybką reakcję w Internecie. Scenarzysta Warner Bros., Mitch Dyer, napisał na Twitterze. Montreal, w tweecie: „Jeśli musisz ciągle się kwalifikować, że wiesz, jak nieszczęśliwe i okropne jest monitorowanie swoich pracowników, możesz być cholernym problemem, mój człowieku”. Adiunkt UC Santa Cruz, Mattie Price, napisał na Twitterze: „Cudowny i okropny przykład tego, jak bezkrytyczne używanie sztucznej inteligencji sprawia, że rządzący biorą ją za dobrą monetę i internalizują jej uprzedzenia”.
Zainteresowanie korporacji generatywną sztuczną inteligencją wzrosło w ostatnich miesiącach, co doprowadziło do ostrej reakcji wśród twórców na całym świecie. Wiele różnych dziedzin, od muzyki po gry. Hollywoodzcy scenarzyści i aktorzy strajkują obecnie po tym, jak utknęły w martwym punkcie negocjacje ze studiami filmowymi i stacjami telewizyjnymi, częściowo dotyczące sposobu wykorzystania sztucznej inteligencji do tworzenia scenariuszy. Lub sfotografuj podobizny aktorów i używaj ich na zawsze.
. „Nieuleczalny entuzjasta muzyki. Bacon geek. Badacz internetu. Hipsterski miłośnik telewizji”.