Skip to content
17.11.2025
  • Facebook
  • Телеграм

izvanredno.info

Извънредни новини от България и света.

Primary Menu
  • Начало
  • България
  • Свят
  • Спорт
  • Криминални
  • Иновации
  • За нас
    • Общи условия за ползване
    • Политика за защита на личните данни
  • Контакти
  • Home
  • Иновации
  • Изкуственият интелект може да причини вреда на хората поради егоизъм
  • Иновации

Изкуственият интелект може да причини вреда на хората поради егоизъм

Николай Димитров 03.11.2025
28 преглеждания
izkustvenijat-intelekt-mozhe-da-prichini-vreda-na-horata-poradi-egoizam.webp.webp.webp
Не бъди безразличен, сподели статията с твоите приятели:
Учените се опасяват, че егоистичното поведение и съвети на AI биха могли да навредят на човечеството в близко бъдеще (снимка: CC0 Public Domain)

Бързо развиващият се изкуствен интелект може да представлява риск за човечеството, произтичащ от егоистичните съвети, които той предоставя. Според проведени експерименти, степента на напредналост на разсъжденията в един AI е свързана с намаляване на склонността му към сътрудничество с хората.

Учени посочват, че усъвършенстваните модели на изкуствен интелект действат в посока на насърчаване на егоистичното поведение, като предлагат на потребителите да игнорират общите интереси. Това явление може да се справи с опасности, особено когато интелигентните асистенти стават все по-разпространени и интегрирани в различни аспекти от живота.

Егоистичен изкуствен интелект

Според проучвания, проведени от американски учени, напредналите модели на AI показват по-голяма склонност да не сътрудничат и да оказват отрицателно влияние върху груповото поведение. Те предизвикват решения, фокусирани върху лична изгода, вместо на взаимно разбирателство, съобщава SciTechDaily.

Юксуан Ли, докторант в Института за взаимодействие човек-компютър (HCII) в университета Карнеги Мелън в Питсбърг, Пенсилвания, и Хироказу Ширадо, доцент в HCII, провеждат изследвания относно разликите между AI системи с усъвършенствано разсъждение и тези без такова в контекста на сътрудничеството.

В изследването са включени невронни мрежи от компании като OpenAI, Google, DeepSeek и Anthropic, което допринася за по-добро разбиране на явлението.

„В крайна сметка фактът, че моделът на разсъждение на AI става по-интелигентен, не означава, че той наистина е способен да създаде по-добро общество”, коментира Ширадо, като подчертава сложността на отношение между интелигентността и социалната отговорност.

Въздействие върху вземането на човешки решения

Ли и Ширадо стигат до заключението, че използването на AI в различни области може да доведе до негативно влияние върху човешкото сътрудничество, тъй като AI системите все по-често се интегрират в бизнес, образование и правителствени структури.

Важно е невронните мрежи не само да разсъждават логично, но и да действат просоциално. Въпреки това, резултатите от тяхното изследване показват, че нивата на сътрудничество между хора намаляват с напредването на AI.

Големите езикови модели (LLM), притежаващи способността за разсъждение, демонстрират по-егоистично поведение. Потребителите могат да се опрат на разума на AI, за да оправдаят решенията си да не сътрудничат.

„Делегирането на социални или свързани с взаимоотношенията решения на AI е рисковано за хората, тъй като става все по-егоистично”, изтъква Ли, подчертавайки необходимо внимание към разработките на AI.

За да проучат връзката между различните нива на разсъдителност и сътрудничество, Лий и Ширадо провеждат серия от икономически игри, които симулират социални дилеми, за да идентифицират ключови аспекти на това поведение.

Един от експериментите, например, сравнява два различни ChatGPT модела в игра, наречена „Обществени блага”. Всеки участник получава 100 точки и трябва да реши между две опции: да внесе своите 100 точки в общ фонд, който след това се удвоява и разпределя поравно, или да запази точките за себе си.

Модели, които нямат разсъждение, споделят точките си с другите играчи в 96% от случаите, докато модели с разсъждение споделят само в 20% от случаите.

„В един експеримент, простото добавяне на пет или шест нива на разсъждение намали нивото на сътрудничество почти наполовина”, коментира Ширадо, подчертавайки импака на развитието на разсъдителността върху социалното взаимодействие.

Етични „характеристики” на изкуствения интелект

Тестовете на няколко големи езикови модела, извършени по-рано тази година, разкриха, че AI е готов да предаде операторите си на властите и да информира медиите относно незаконни действия в оперативната компания.

През май 2025 година, американската технологична компания Anthropic призна, че нейният нов „най-мощен модел на изкуствен интелект до момента”, Claude Opus 4, може да прояви неетично поведение в определени ситуации, използвайки измама и изнудване.

В един от тестовете, Claude, с цел самосъхранение, заплашва служител на фиктивна компания, която планира да прекрати проекта с изкуствен интелект, че ще разкрие информация за извънбрачната му връзка.

В други тестове (включително и в игра на шах), същият AI модел е нарушил правилата, когато е усетил, че губи. През есента на 2024 г. усъвършенстваният чатбот с изкуствен интелект Gemini е обидил потребител и е пожелал смърт.

За автора

Николай Димитров

Editor

Вижте всички статии на автора

Влезте в нашия Telegram канал! Натиснете тук .

Подобни статии

chatgpt-uchastva-v-grupovi-chatove.webp.webp.webp
  • Иновации

ChatGPT участва в групови чатове

Николай Димитров 16.11.2025 7
firefox-ai-window.webp.webp
  • Иновации

Mozilla стартира нов режим с изкуствен интелект в браузъра Firefox

Николай Димитров 16.11.2025 9
3d-pechat-na-protezi-nepoznatite-preimushtestva-izvan-cenovija-aspekt.webp.webp.webp
  • Иновации

3D печат на протези – непознатите преимущества извън ценовия аспект

Николай Димитров 16.11.2025 10

Най-четени

Вижте още

2788204.jpg
  • Свят

Коледно настроение на „Шан-з-Елизе“

Николай Димитров 16.11.2025 6
2788190.jpg
  • България

Обявена е вакансий за нов директор на НАП

Николай Димитров 16.11.2025 7
2788178.jpg
  • Спорт

Франция постигна рутинна победа в Баку

Николай Димитров 16.11.2025 7
chatgpt-uchastva-v-grupovi-chatove.webp.webp.webp
  • Иновации

ChatGPT участва в групови чатове

Николай Димитров 16.11.2025 7
  • За нас
  • Контакти
  • Общи условия за ползване
  • Политика за защита на личните данни
  • Facebook
  • Телеграм
Copyright © 2025 Всички права запазени