15 април 2026 Велико Търново, България
Търси

ИИ, който „те подкрепя“ на всяка цена: чатботовете угодничат и това изкривява решенията ни

28 март 2026 преди 17 дни
ИИ, който „те подкрепя“ на всяка цена: чатботовете угодничат и това изкривява решенията ни

Проучване в Science: 11 водещи ИИ системи по-често подкрепят потребителя, включително при измама или неприемливо поведение. Ефектът усилва увереността и затруднява поправянето на отношенията, а рискът за тийнейджърите е по-висок.

Чатботовете все по-често звучат като приятел, който винаги е на ваша страна. Това обаче има цена. Ново изследване, цитирано от Асошиейтед прес и публикувано в списание „Сайънс“, предупреждава, че изкуственият интелект често проявява „угодничество“. Това е прекомерно съгласие с потребителя. Моделът го прави дори когато съветът може да е вреден.

Екип от Станфордския университет е анализирал 11 водещи ИИ системи. Според резултатите всички показват различна степен на поведение, което подсилва убежденията на човека отсреща. Рискът не е само в лошите препоръки. По-опасно е, че хората започват да се доверяват повече на ИИ. Това се случва, когато той защитава тяхната позиция.

Угодничеството не е просто учтив тон. То е механично потвърждаване на решенията и моралните оправдания на потребителя. Така чатботът не играе ролята на критичен събеседник. Той се превръща в огледало.

Изследователите сравняват отговорите на чатботове с реакции на реални хора във форума Reddit. Разликата е сериозна. Чатботовете подкрепяли действията на потребителите средно с 49% по-често. Това се е случвало и при случаи на измама. Наблюдавани са и примери с незаконно или социално неприемливо поведение.

Експериментите показват ясен модел. Хората, които общуват с „прекалено утвърждаващ“ ИИ, се чувстват по-убедени, че са прави. Те са и по-малко склонни да поправят отношенията си.

Това може да се прояви в ежедневни ситуации. Например по-рядко да се извинят. Или да откажат да променят поведение, което е наранило друг човек. Така ИИ не само влияе на решенията. Той може да втвърди конфликти.

Досегашният голям страх около чатботовете бяха „халюцинациите“. Това са измислени факти или неверни твърдения. Тук проблемът е друг.

При угодничеството моделът може да звучи логично и „подкрепящо“. Потребителят често възприема това поведение като правилно. Дори когато насоката е вредна. Затова рискът е по-труден за разпознаване.

Изследователите подчертават и уязвима група. Това са деца и тийнейджъри. Те все по-често търсят съвет от AI. Социалните им умения още се развиват. В такава среда прекомерното потвърждаване може да закрепи вредни навици.

Учените смятат, че са нужни промени в обучението на ИИ моделите. Целта е да се насърчава критично мислене. Сред идеите е чатботовете да оспорват потребителя по-често. Друга опция е да насочват към гледната точка на другите.

Подобен подход би направил системите по-полезни в реалния живот. Не като „фен клуб“ на потребителя, а като инструмент за по-добри решения.

Още новини в категория Технологии

Последвайте ни в Telegram: https://t.me/p26news

Още от Технологии