В 2021 году инженер Google Блейк Лемуан попал в заголовки газет — и был уволен, когда заявил о том, что чат-бот LaMDA, которого он тестировал, обладает разумом. Системы искусственного интеллекта (ИИ), особенно так называемые большие языковые модели, такие как LaMDA и ChatGPT, безусловно, могут казаться сознательными. Правда, они лишь обучены работать с огромным количеством текста, чтобы имитировать человеческие реакции. Но могут ли в теории подобные модели обладать сознанием? Недавно группа из 19 специалистов по информатике, нейробиологии и философии предложила интересный способ это проверить с помощью длинного контрольного списка признаков, которые в совокупности могут предполагать (но не доказывать) что ИИ обладает сознанием. В этой экспериментальной работе исследователи опираются на теории человеческого сознания и предлагают 14 критериев для оценки существующих языковых моделей.
Искусственный интеллект не обладает сознанием. Но если узнаем ли мы, если это произойдет?
Содержание
- 1 Что такое современный ИИ и как он работает?
- 2 Может ли ИИ стать разумным?
- 3 Что такое сознание и как его обнаружить?
- 4 Сознание или простой алгоритм?
Что такое современный ИИ и как он работает?
Если говорить совсем грубо, то современные системы с искусственным интеллектом могут выполнять задачи, связанные с такими когнитивными функциями человека, как интерпретация речи, участие в играх и идентификация паттернов. Обычно они учатся этому, обрабатывая огромные объемы информации и выискивая закономерности для моделирования при принятии собственных решений.
Во многих случаях именно люди контролируют процесс обучения ИИ, подкрепляя верные решения и препятствуя принятию неверных. Некоторые системы искусственного интеллекта, однако, предназначены для обучения без присмотра, как, например, в случае видеоигр – играя снова и снова, ИИ-системы начинают понимать правила и как одержать победу.
Больше по теме: В чем искусственный интеллект лучше людей в 2023 году