Алиса_Алиса (Четверг, 30 марта 2023, 12:07:05) писал:
Ну пользователь ведь знал, что общается с машиной? А что тут аморального, если, конечно, не скрывается факт ИИ?
Лично я бросаю трубку, когда из банка мне звонят роботы. (в большинстве случаев это скрывается). Мне противно уже то, что я сказала машине "здравствуйте". При общении с человеком, любым, я испытываю эмоции, это неизбежно. Когда ребёнок играет с куклой, он сам одушевляет её, сам контролирует процесс. Когда машина представляется чувствительной, обижающейся, влюблённой, я на автомате, против своей воли реагирую на неё как на живую. Мне насильно внушают ложные представления и получают от меня эмоциональные реакции.
Аморально то, что живой человек равняется с бездушной машиной. Если человека с детства держать в такой среде, он одинаково станет реагировать на живое и неживое, бездушное и одушевлённое. Это самый настоящий кошмар.
Алиса_Алиса (Четверг, 30 марта 2023, 12:07:05) писал:
Конкретный человек был пациентом психбольницы.
На любом форуме его бы ещё быстрее привели в плохое состояние.
Откуда такая уверенность!? Что значит "на любом"? На нашем тоже?
Если уж программа такая "умная", она должна была при первых признаках суицидальных настроений написать рекомендацию обратиться к психиатру и отключиться, чтобы не навредить. А не писать "встретимся на небесах". Не знаю, каких скринов еще надо, мне этого достаточно.