Все більше людей вирішують утримуватися від використання генеративного штучного інтелекту (ШІ) – таких систем, як ChatGPT і генератори зображень – з етичних, екологічних і навіть когнітивних причин. Дехто називає цей рух «веганством штучного інтелекту», що відображає більш глибоке занепокоєння з приводу швидкого впровадження штучного інтелекту в повсякденне життя та його потенційних наслідків.
Етичні питання: крадіжка, експлуатація та згода
Основним аргументом проти генеративного штучного інтелекту є його залежність від величезних наборів даних, зібраних із існуючих творчих робіт. Багато художників, письменників і музикантів вважають, що їхню інтелектуальну власність використовують без їхньої згоди. За словами чеської художниці Белли, використання штучного інтелекту здається їй «зрадою» після багатьох років відточування своїх навичок.
Етика виходить за рамки авторського права. Марк, іспанець, який не любить ШІ, називає генеративний ШІ інструментом для «експлуатації працівників», стверджуючи, що він увічнює капіталістичні системи за рахунок людської творчості. Ці занепокоєння не безпідставні: навчання моделей штучного інтелекту часто покладається на низькооплачуваних працівників, які займаються маркуванням даних, особливо в таких країнах, як Кенія, що викликає питання щодо справедливої трудової практики.
Вплив на навколишнє середовище: приховані витрати
Крім моральних наслідків, генеративний ШІ має значний вплив на навколишнє середовище. Згідно з дослідженням 2023 року, навіть на коротку розмову з ChatGPT можна витратити рівноцінно пляшці води. Цей попит на енергію збільшує і без того значний вуглецевий слід центрів обробки даних, роблячи ШІ менш стійким, ніж багато хто думає.
Когнітивні ефекти: залежність і порушення мислення
Нові дослідження показують, що штучний інтелект також може зашкодити когнітивному розвитку. Нещодавнє дослідження Массачусетського технологічного інституту показало, що учасники, які використовували ChatGPT для написання есе, демонстрували меншу мозкову активність і мали труднощі з пригадуванням своєї роботи. Наталія Косміна, співавтор дослідження, попереджає, що це може підірвати почуття власності на ідеї та знизити ефективність у ситуаціях, які потребують високої концентрації.
Ця залежність від ШІ для швидкого прийняття рішень викликає занепокоєння щодо зниження критичного мислення. Люсі, ще одна прихильниця штучного інтелекту, стурбована тим, що чат-боти зміцнюють помилкові уявлення, надаючи постійні підтвердження, що потенційно може загострити існуючі суспільні проблеми.
Труднощі утримання
Уникати штучного інтелекту стає все важче, оскільки він проникає на робочі місця, школи та соціальні мережі. Марк, колишній фахівець з кібербезпеки в галузі штучного інтелекту, описує тиск в університеті, щоб використовувати його, і «залежність від ярликів» серед членів його сім’ї. Люсі стикається з подібними проблемами під час свого стажування як графічного дизайнера, де клієнти вимагають контенту, створеного штучним інтелектом, незважаючи на його недоліки.
Майбутнє штучного інтелекту: регулювання проти заборони
Для деяких, як-от для Марка, рішенням є повна заборона. Інші виступають за більш суворі правила, які віддають пріоритет етичному отриманню даних і справедливій трудовій практиці. Косміна вважає, що генеративний ШІ має бути заборонений для неповнолітніх і не повинен нав’язуватися учням у навчальних закладах.
Зрештою, рух «AI Vegan» наголошує на необхідності ретельного розгляду соціальних наслідків штучного інтелекту. У той час як одні бачать потенційні переваги, інші вважають за краще відкладати, стверджуючи, що витрати переважують зручність.
Основний меседж зрозумілий: велич реальності залишається неперевершеною. Новизна ШІ зникає, залишаючи яскраве нагадування про те, що людська креативність і критичне мислення незамінні.




















































