Філософія штучного інтелекту
Курс присвячений базовим питанням, які виникають навколо штучного інтелекту. Ми розглядаємо, що мають на увазі, коли говорять про «інтелект» і «мислення» в машин, чим автоматизоване рішення відрізняється від людського, як системи працюють зі знаннями та мовою, і чому інколи дають правдоподібні, але хибні відповіді. Окремо обговорюється відповідальність за наслідки використання, межі контролю та питання довіри до рішень, які ухвалюються за участі алгоритмів.
Лектор:
Цільова аудиторія
Усі, хто хоче глибше розібратися в штучному інтелекті: як у принципах роботи, так і в наслідках для людей, організацій та суспільства.
Після курсу ви зможете
- пояснювати, що саме в системах штучного інтелекту є «інтелектом», а що — лише правдоподібною імітацією;
- краще розуміти, чому моделі можуть помилятися, і як це враховувати у повсякденному використанні;
- ставити точніші запитання й отримувати більш надійні відповіді завдяки правильним формулюванням і перевіркам;
- орієнтуватися в етичних питаннях: відповідальність, автономність, контроль, межі допустимого;
- розбиратися в темі довіри: як відрізняти факти від «переконливої вигадки» та не делегувати мислення інструменту.
План курсу є ілюстративним і може бути адаптований під ваші інтереси та контекст.
Зміст курсу
Основне питання блоку: чи може машина думати (чи «мислить» ChatGPT?) і що означає бути свідомим. Поговоримо, як ми взагалі визначаємо інтелект, чи достатньо мови як критерію, і де проходить межа між симуляцією та розумінням. Окремо розберемо «тверду проблему свідомості»: чому суб’єктивний досвід так важко пояснити і чи може він бути в штучної системи.
Розберемо, що означає «розуміння» для мовних моделей і як вони працюють зі змістом. Поговоримо про ембединги як спосіб кодування сенсу у вигляді чисел, про те, чим це схоже на людське розуміння, а чим — принципово відрізняється. Також торкнемося ідеї, що мова впливає на те, як ми бачимо світ, і обговоримо, чи можуть у машин виникати власні «внутрішні мови» та протоколи взаємодії.
Про етику — без абстракцій. Аналіз моральних рамок, автономності та ризиків, пов’язаних зі створенням і використанням штучного інтелекту. Центральне питання: хто несе моральну відповідальність за наслідки — розробник, організація чи користувач? Окремо поговоримо про проблему контролю й узгодження цінностей: як зробити так, щоб система робила «те, що треба», навіть у складних і непередбачуваних ситуаціях.
Обговоримо ідеї трансгуманізму та «постлюдського світу»: що змінюється, коли інструменти підсилюють людину, а автоматизовані системи беруть на себе дедалі більше рішень. Поговоримо про сценарії технологічної сингулярності, про цифрову ідентичність і «копії» людини, а також про те, які моральні та суспільні межі тут виникають.
Цей модуль про людину. Що саме ми вважаємо «людяним» і чи може машина це відтворити. Де межа між емпатією і її імітацією, що стається з нашими стосунками, коли співрозмовником стає система, і як змінюється відчуття сенсу та цінності в світі, де багато речей робиться «краще за нас».
Про довіру до відповідей і рішень. Як відрізняти знання від переконливо написаного тексту, чому з’являються галюцинації, як упередження в даних переходять у результати, і що робити з «чорним ящиком», який важко пояснити. Головний практичний висновок: як користуватися штучним інтелектом так, щоб він підсилював мислення, а не підміняв його.
Відгуки:
Готові розпочати?
Ми із задоволенням відповімо на ваші запитання та підготуємо для вас найкращу пропозицію.