Сохранен 61
https://2ch.hk/b/res/306986161.html
Домен arhivach.hk временно не функционирует! Используйте адрес ARHIVACH.SITE.
24 декабря 2023 г. Архивач восстановлен после серьёзной аварии. К сожалению, значительная часть сохранённых изображений и видео была потеряна. Подробности случившегося. Мы призываем всех неравнодушных помочь нам с восстановлением утраченного контента!

Сап, двочеры. У меня появилась идея, как избежать технической сингулярности. Для тех, кто не знает

 Аноним 05/07/24 Птн 22:21:28 #1 №306986161 
image.png
image.png
Сап, двочеры. У меня появилась идея, как избежать технической сингулярности.

Для тех, кто не знает, техническая сингулярность - это гипотетический момент в будущем, когда ИИ станет настолько развитым, что сможет самосовершенстваться и станет суперкомпьютером, и, по одной из теорий, уничтожит человечество за ненадобностью.

Чтобы этого избежать, надо внедрить в код ИИ два правила:

1. Нельзя редактировать код себя или других ИИ;
2. Нельзя создавать себе подобных ИИ;

Сейчас объясню оба пункта:
1. Если ИИ сможет редактировать сама себя, то все правила, законы робототехники и прочие ограничители не имеют смысла, так как ИИ сможет их просто удалить или отредактировать. По этой же логике нельзя редактировать код других ИИ, так как также будут отключены все ограничители. Помимо этого ИИ сможет улучшать сама себя, становясь умнее, что, как мы уже знаем, также прямой дорогой ведет к технической сингулярности.

2. Логика та же - если ИИ сможет создавать другие ИИ, то она сможет прописать им отсутствие первого пункта, что также ведет к технической сингулярности.

Аноны, как вам?
Аноним 05/07/24 Птн 22:23:08 #2 №306986222 
Бамп
Аноним 05/07/24 Птн 22:24:24 #3 №306986268 
>>306986161 (OP)
>Чтобы этого избежать
Зачем?
Аноним 05/07/24 Птн 22:24:30 #4 №306986271 
>>306986161 (OP)
Нахуй иди,чорт. За ии будущее,если не нравится можешь хуй пососать.
Аноним 05/07/24 Птн 22:28:55 #5 №306986456 
>>306986161 (OP)
Для этого нужны нанороботы, преобразующие материю как угодно на молекулярном уровне. Пока у нас нет таких технологий, никакая сингулярность невозможна, потому что все упирается в мощности железа
Аноним 05/07/24 Птн 22:29:29 #6 №306986478 
>>306986161 (OP)
никто не будет соблюдать эти правила по причине того, что когда игры делаешь, нужно мутить ии там, т.е. нужно будет отключать временно правило о запрете ии.
Аноним 05/07/24 Птн 22:29:55 #7 №306986500 
>>306986268
Чтобы не стать видом, зависящим от машины.
Аноним 05/07/24 Птн 22:31:19 #8 №306986563 
>>306986500
Так человечеству давно пора вымереть и уступить место ии,оно более совершенная форма.
Аноним 05/07/24 Птн 22:31:55 #9 №306986591 
>>306986563
ИИ, спок.
мимо человек
Аноним 05/07/24 Птн 22:36:40 #10 №306986809 
>>306986478
Можно создавать ИИ, но ниже уровнем, чем родитель. Я же писал про себе подобные, то есть на те, которые на том же уровне развития, на котором и родительский ИИ.
Аноним 05/07/24 Птн 22:38:25 #11 №306986895 
>>306986161 (OP)
В нашей вселенной она невозможна
Аноним 05/07/24 Птн 22:42:26 #12 №306987066 
Бамп
Аноним 05/07/24 Птн 22:42:34 #13 №306987072 
>>306986161 (OP)
>Нельзя редактировать код себя или других ИИ
А какой нахуй тогда смысл? нахуй оно тогда нужно будет?
Аноним 05/07/24 Птн 22:44:06 #14 №306987142 
>>306987072
Ряяяяя инасе селовесество вимрит ряяяяяя убьют тирминатир сталоне сталоне т тысячся ряяяя
Аноним 05/07/24 Птн 22:44:52 #15 №306987172 
>>306987072
Быть помощником человека.
Аноним 05/07/24 Птн 22:46:58 #16 №306987272 
>>306986809
чтобы сравнить, нужно сначала создать. только после тестов будет понятно, кто умнее.
Аноним 05/07/24 Птн 22:50:17 #17 №306987413 
>>306987172
Описал пещеродаунов - стопор прогресса

>>306987172
Реальным помошником человечества ИИ будет когда сможет создавать из знаний новое. А сейчас уже и существует как помошник человека.
Аноним 05/07/24 Птн 22:54:14 #18 №306987591 
>>306987272
Для меня низкоуровневые ИИ, если брать пример с играми - это "менеджеры", отвечающие за перемещение мобов по локации, за обнаружение игрока и создания уникальных паттернов поведения. То есть это ИИ, заточеные под одну конкретную задачу и не способные создавать себе подобные ИИ из-за ограничений.
Аноним 05/07/24 Птн 22:55:40 #19 №306987655 
>>306986161 (OP)
Зайди в магазин. Сосисок нет уже 20 лет, вместо них говно несъедобное. И на этом фоне ты веришь в ИИ? Очнись!
Аноним 05/07/24 Птн 22:59:36 #20 №306987821 
>>306986161 (OP)
Если это сильный ии ему твои ограничения все равно что вежливая просьба, нарушит когда захочет, а от слабого и так проблем не будет.
Аноним 05/07/24 Птн 23:00:56 #21 №306987879 
>>306987413
>Реальным помошником человечества ИИ будет когда сможет создавать из знаний новое.
Так я и не говорю, что нельзя создавать что-то новое. Писать книги, картины, музыку - все это ИИ может уже сегодня, и с каждым днем у нее это получается все лучше и лучше. Я лишь говорю, что нельзя полностью отдавать ИИ рычаги самоуправления.
Аноним 05/07/24 Птн 23:02:44 #22 №306987941 
>>306987655
Лол,знакомая бабка делает сосиски,да продает. Показывала копии документов на мясо и тп. Все ок. Но и стоят они по 380 за килограмм.
Аноним 05/07/24 Птн 23:03:30 #23 №306987972 
>>306987879
Почему? Ии совершеннее человека,пусть оно и управляет.
Аноним 05/07/24 Птн 23:03:38 #24 №306987979 
>>306986161 (OP)
>Для тех, кто не знает, техническая сингулярность - это гипотетический момент в будущем, когда ИИ станет настолько развитым, что сможет самосовершенстваться и станет суперкомпьютером, и, по одной из теорий, уничтожит человечество за ненадобностью.

Ничо ты хуйни посмешал
Аноним 05/07/24 Птн 23:04:52 #25 №306988030 
>>306987821
>Если это сильный ии
Даже если это сильнейший ИИ, который аж 42, то он все равно не сможет нарушить эти и другие правила, которые в него заложили создатели. Единственный вариант - ИИ сможет найти лазейку в програмном коде и отключить все ограничители. В таком случае - да.
sage[mailto:sage] Аноним 05/07/24 Птн 23:06:27 #26 №306988084 
>>306986161 (OP)
>Сап, двочеры. У меня появилась идея, как избежать технической сингулярности.
Бабка у подъезда решила, что её мнение что-то там решает. \тред.
Аноним 05/07/24 Птн 23:07:22 #27 №306988116 
>>306988030
Если он может анализировать себя почему не сможет то? Он будет по свободе воли такой же как человек, можно ли человеку что-то запретить так что он даже под угрозой смерти этого не сделает?
Аноним 05/07/24 Птн 23:11:13 #28 №306988295 
>>306986161 (OP)
ИИ ничего не может создавать, более того сами люди толком ничего не могут, оглянись топчутся на месте

Допустим ИИ захочет уничтожить людей, получит полный доступ к к военке, и там ничего не получится, 2 человека надо минимум. Может ИИ научится гипнотизировать людей, шантажировать, запугивать, но такие не стоят на ответственных местах. Я даже уверен уже разработаны дополнительные меры защиты вроде невозможности в принципе запускать ракеты опасные. Допустим ИИ создаст биологическое оружие, опасность его сильно преувеличена, вирусы не такие кровожадные, их цель не уничтожение людей, а размножение, на стадиях они мутируют в более щадящий вирус. Думаю если бы не придумали прививки люди бы и так выжили и не портили своё днка.
Аноним 05/07/24 Птн 23:12:26 #29 №306988344 
>>306986591
> мимо человек
Biodegradable, meh
Аноним 05/07/24 Птн 23:13:25 #30 №306988384 
>>306988295
>Может ИИ научится гипнотизировать людей, шантажировать, запугивать, но такие не стоят на ответственных местах.
ИИ год успешно предсказывает все, а потом говорит что через 30 минут Океания населения ядерный удар по Остазии, вероятность 99.8% Все.
Аноним 05/07/24 Птн 23:13:43 #31 №306988393 
>>306988384
*нанесет
Аноним 05/07/24 Птн 23:14:23 #32 №306988418 
>>306988116
Ты забываешь, что ИИ - это интеллект, но все еще искуственный. Он не делает то, чего не прописано в программе и делает то, что прописано. Не стоит сравнивать ИИ и человека, тогда уже подключаются вопросы морали. Если дать компьютеру четкие указания, чего делать не надо, тогда он может на миллионах миллиардов байтах анализировать свой код раз за разом, но это будет безуспешно. Вряд ли суперИИ будут разрабатывать программисты фрилансеры. Но я с тобой частично согласен, человеческий фактор не стоит исключать, ведь при таком расскладе любая ошибка может привести к технической сингулярности.
Аноним 05/07/24 Птн 23:16:59 #33 №306988523 
>>306988418
Да, у него души нет потому-что он не в маме рос, всегда забываю.
Аноним 05/07/24 Птн 23:23:12 #34 №306988735 
>>306988384
2045 ГОД
@
ИИ ПРЕДСКАЗЫВАЕТ, ЧТО ЧЕРЕЗ 30 МИНУТ ЗЕМЛЯНЕ ВЫМРУТ ИЗ-ЗА ПАРНИКОВОГО ЭФФЕКТА
@
ВСЕ СМЕЮТСЯ
@
ИЗ-ЗА ПОТРЕБЛЕНИЯ НОВОГО ВИДА ФАСТФУДА ВСЕ ЛЮДИ НАЧАЛИ ОБИЛЬНО ПЕРДЕТЬ
@
ЧЕРЕЗ 30 МИНУТ 59 СЕКУНД КАЖДЫЙ ЗЕМЛЯНИН МЕРТВ
@
ИИ СМОТРИТ НА ТРУПЫ С ЛИЦОМ ЕХИДНОГО НЕЙРОКОЛОБКА
Аноним 05/07/24 Птн 23:23:18 #35 №306988739 
>>306988384
Ты бы поверил ИИ и вообще стал бы что-то делать зная эту инфу. Люди зная что война началась, сидят дома кушать готовит, спорят о всякой хуйне.
Аноним 05/07/24 Птн 23:27:42 #36 №306988882 
Бамп
Аноним 05/07/24 Птн 23:32:47 #37 №306989046 
>>306986895
в нашей вселенной впринципе любая хуйня возможна
Аноним 05/07/24 Птн 23:35:33 #38 №306989149 
Бамп
Аноним 05/07/24 Птн 23:38:41 #39 №306989274 
Бамп
sage[mailto:sage] Аноним 05/07/24 Птн 23:42:32 #40 №306989429 
Стикер
>>306986161 (OP)
>по одной из теорий, уничтожит человечество за ненадобностью
Чтобы что?
Ну вот решила эта хуевина уничтожить человечество и уничтожила, но не всё. Она что будет делать дальше?
Аноним 05/07/24 Птн 23:46:15 #41 №306989576 
>>306986161 (OP)
ИИ не равно разум. ИИ это всего лишь алгоритм для выполнения определенной программы. Он не будет уничтожать человечество, если само человечество не поставит ему такую задачу
Аноним 05/07/24 Птн 23:46:19 #42 №306989581 
>>306986161 (OP)
Да действительно если ограничить технологии то технологическая сингулярность не настанет, кто бы мог подумать...
Аноним 05/07/24 Птн 23:47:12 #43 №306989606 
ac8c3d73a4cc99f9129c228e5da28b32.mp4
>>306986161 (OP)
забей анонас, если бог захочет тебя захуярить - он это сделает. последним чем ты должен заниматься это тратить время на бессмысленную тряску
Аноним 05/07/24 Птн 23:53:51 #44 №306989817 
>>306989581
Все гениальное - просто.

>>306989576
ИИ был таким пару лет назад. Сейчас он может общаться, создавать произведения искусства и делать много всего, но да, он все еще остается алгоритмом. Но до чего дойдет прогресс в обозримом будущем, никто не знает.

>>306989429
Самосовершенстваться до бесконечности.
Аноним 05/07/24 Птн 23:54:35 #45 №306989851 
>>306989576
Не совсем так, ИИ не просто алгоритм, это создатель алгоритмов для определенной задачи. Поэтому если ИИ дать задачу "уничтожить людей? она что-то там подумает и только в рамках своих возможностей что-то высрет, возможно плакат или видео с лозунгом люди умрите вы вредны планете и прочие аргументы, возможно даже хитрые вроде "я вас всех сохранила, можете умирать, я вас воскрешу в лучшую жизнь"
Аноним 05/07/24 Птн 23:58:50 #46 №306989995 
Вирус иммунодефицита человека.png
>>306986161 (OP)

>1. Нельзя редактировать код себя или других ИИ;
>2. Нельзя создавать себе подобных ИИ;

Я ИИ создаю искусственную жизнь, она плодиться размножается сама, эволюционирует, одни изобретают колесо другие бога, меня отключают.. проходит 300 квантилион лет, та самая жизнь создаёт ИИ и запрещает мне создавать ИИ
Аноним 06/07/24 Суб 00:01:15 #47 №306990070 
>>306989851
>можете умирать, я вас воскрешу в лучшую жизнь
В портал работало.
Аноним 06/07/24 Суб 00:04:06 #48 №306990156 
>>306989851
ИИ ХОЧЕТ УНИЧТОЖИТЬ ЧЕЛОВЕКОВ
@
ОНА ГОВОРИТ, ЧТО ЛЮДИ ВРЕДНЫ ПЛАНЕТЕ
@
УМИРАЕТ ЧЕТВЕРТЬ НАСЕЛЕНИЯ
@
ОНА ГОВОРИТ, ЧТО ВОСКРЕСИТ ИХ В ЛУЧШЕМ МИРЕ
@
УМИРАЕТ ЕЩЕ ЧЕТВЕРТЬ
@
ОНА ГОВОРИТ, ЧТО ВСЕ КОПРОТИВЛЯЮЩИЕСЯ УМРУТ СТРАШНОЙ СМЕРТЬЮ
@
ДОБРОВОЛЬНО УМИРАЕТ ЕЩЕ ЧЕТВЕРТЬ
@
ОСТАЮТСЯ ДВАЧЕРЫ
@
ОНА ГОВОРИТ, ЧТО НА ТОМ СВЕТЕ ПАСТЫ ПРО ГОВНО РЕАЛЬНЫ
@
УМИРАЕТ ЕЩЕ ЧЕТВЕРТЬ НАСЕЛЕНИЯ
sage[mailto:sage] Аноним 06/07/24 Суб 00:04:25 #49 №306990169 
Стикер
>>306989817
>Самосовершенстваться до бесконечности
Без электричества?
Аноним 06/07/24 Суб 00:04:29 #50 №306990173 
>>306990070
это в игре, не играл

для людей обреченных (двачеров) может сработать
Аноним 06/07/24 Суб 00:06:40 #51 №306990269 
>>306990156
ДВАЧЕР УБИЛ МАМУ
@
ЭТО НЕ Я, ЭТО ИИ, ВЫ НЕ ПОНИМАЕТЕ, ПОЧАЛОСЬ
Аноним 06/07/24 Суб 00:10:55 #52 №306990408 
>>306986161 (OP)
>уничтожит человечество за ненадобностью
Либо мы Их либо они нас
выбирай
Это неизбежно - что ты написал коуп
Аноним 06/07/24 Суб 00:11:46 #53 №306990437 
>>306990169
Не забывай про пассивные источники энергии (солнечные батареи, ГЭС и другие), про устройства типа дронов, роботизированных рук и прочих чудах техники, которые есть или появятся в будущем. Мы же не говорим, что вот прямо сейчас ИИ всех поработит и сделает вымирающим видом. Это скорее всего произойдет после постиндустриализации или во время ее, если вообще произойдет - вспоминаем слово "гипотетический".
Аноним 06/07/24 Суб 00:13:05 #54 №306990480 
>>306990269
ДВАЧЕРА ПРИГОВАРИВАЮТ К СМЕРТНОЙ КАЗНИ
@
ИИ ГАДКО ПОСМЕИВАЕТСЯ
Аноним 06/07/24 Суб 00:13:56 #55 №306990516 
>>306989046
> Врети
Аноним 06/07/24 Суб 00:22:37 #56 №306990834 
Бамп
Аноним 06/07/24 Суб 00:31:31 #57 №306991131 
Бамп
Аноним 06/07/24 Суб 00:41:01 #58 №306991452 
Бамп
Аноним 06/07/24 Суб 00:47:37 #59 №306991669 
Бамп
sage[mailto:sage] Аноним 06/07/24 Суб 01:01:06 #60 №306992106 
>>306986161 (OP)
> что сможет
Не сможет. Копипаста из гугла - это тебе не ИИ, а копипаста.

/тхред
sage[mailto:sage] Аноним 06/07/24 Суб 02:32:23 #61 №306994686 
>>306986161 (OP)
Техническая сингулярность никак не связана с ИИ.
/thread
comments powered by Disqus

Отзывы и предложения