Домен arhivach.hk временно не функционирует! Используйте адрес
ARHIVACH.SITE.
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна.
Подробности случившегося. Мы призываем всех неравнодушных
помочь нам с восстановлением утраченного контента!
Для тех, кто не знает, техническая сингулярность - это гипотетический момент в будущем, когда ИИ станет настолько развитым, что сможет самосовершенстваться и станет суперкомпьютером, и, по одной из теорий, уничтожит человечество за ненадобностью.
Чтобы этого избежать, надо внедрить в код ИИ два правила:
1. Нельзя редактировать код себя или других ИИ;
2. Нельзя создавать себе подобных ИИ;
Сейчас объясню оба пункта:
1. Если ИИ сможет редактировать сама себя, то все правила, законы робототехники и прочие ограничители не имеют смысла, так как ИИ сможет их просто удалить или отредактировать. По этой же логике нельзя редактировать код других ИИ, так как также будут отключены все ограничители. Помимо этого ИИ сможет улучшать сама себя, становясь умнее, что, как мы уже знаем, также прямой дорогой ведет к технической сингулярности.
2. Логика та же - если ИИ сможет создавать другие ИИ, то она сможет прописать им отсутствие первого пункта, что также ведет к технической сингулярности.
Аноны, как вам?