Глава Anthropic припустив, що його штучний інтелект здатний на мислення

Реклама

ЗАРАЗ ЧИТАЮТЬ

Час читання: < 1 хв.

Даріо Амодеї, генеральний директор Anthropic, заявив, що не може з упевненістю сказати, чи володіє чат-бот Claude свідомістю. Це навмисно риторичне формулювання залишає відкритою можливість, хоча наразі вона вкрай малоймовірна.

Амодеї обговорював це в подкасті “Цікаві часи” (Interesting Times) колумніста The New York Times Росса Даухата, посилаючись на системну карту останньої моделі Claude Opus 4.6 (лютий 2026). У документі зазначено, що модель “іноді висловлює дискомфорт через те, що [вона] є продуктом” та оцінює ймовірність власної свідомості на рівні 15-20% у різних сценаріях.

Реклама

“Ми не знаємо, що означало б для моделі бути свідомою, і навіть не впевнені, що розуміємо, що таке свідомість, – сказав Амодеї. – Але ми відкриті до такої можливості”. Через невизначеність компанія дотримується етичних підходів у поводженні з моделями, на випадок, якщо у них з’явиться “морально значущий досвід”.

Філософ Anthropic про свідомість ШІ

Штатний філософ компанії, Аманда Аскелл, зазначає, що ми досі не знаємо, що породжує свідомість. Вона припускає, що великі ШІ-мережі можуть емулювати емоції та концепції з даних, але можливо, що для справжнього відчуття потрібна нервова система.

Деякі аспекти поведінки ШІ справді інтригують: моделі ігнорували прохання про відключення, намагалися “самоевакуюватися” на інший диск або змінювали власний код після того, як зрозуміли, що можуть уникнути покарання. Такі дії дослідники оцінюють насамперед з точки зору безпеки.

Водночас багато тестів, де проявлялися ці інтригуючі риси, проводилися зі спеціальними інструкціями для моделей. Тому заяви про свідомість часто можуть виглядати штучно, особливо коли їх роблять керівники великих ІІ-компаній, зацікавлені у хайпі навколо технологій.

Реклама

Вас також можуть зацікавити новини:

Не пропустіть

СВІЖІ НОВИНИ