Categories: Наука

Грозит катастрофой: профессор предостерег от неограниченного развития искусственного интеллекта

Правительство недостаточно делает для контроля над искусственным интеллектом, говорит британский профессор Стюарт Рассе. По его словам, ставший весьма популярным в последние месяцы ChatGPT может стать частью сверхинтеллектуальной машины, которую невозможно будет ограничить.

фото: freepik.com

один из профессоров, стоящих на переднем крае развития искусственного интеллекта, сказал, что министры делают недостаточно для защиты от опасностей, связанных со сверхразумными машинами в будущем, пишет The Guardian.

В своем последнем вкладе в дискуссию о безопасности постоянно ускоряющегося развития искусственного интеллекта профессор Стюарт Рассел рассказал The Times, что министры неохотно регулируют отрасль, несмотря на опасения, что технология может выйти из-под контроля и угрожать будущему человечества.

Рассел, преподаватель Калифорнийского университета в Беркли и бывший советник правительств США и Великобритании, признает, что он обеспокоен тем, что ChatGPT, который был выпущен в ноябре, может стать частью сверхинтеллектуальной машины, которую будет невозможно ограничить.

“Как вам удается сохранять <span class="wp-tooltip" title="социальное взаимодействие отношение между индивидами или группами отличительной чертой которого является возможность одного индивида или группы оказывать влияние на другого индивида или труппу изменяя их поведение в соответ над существами, более могущественными, чем вы, – вечно? – задается вопросом профессор. – Если у вас нет ответа, тогда прекратите проводить исследование. Все очень просто. Ставки не могут быть выше: если мы не будем контролировать нашу собственную цивилизацию, у нас не будет права голоса в том, продолжим ли мы существовать”.

Как пишет The Guardian, после обнародования в прошлом году ChatGPT, который использовался для написания прозы и уже вызвал беспокойство лекторов и преподавателей по поводу его использования в университетах и школах, усилились дебаты о его безопасности в долгосрочной перспективе.

Илон Маск, основатель Tesla и владелец Twitter, и соучредитель Apple Стив Возняк вместе с 1000 экспертами по искусственному интеллекту написали письмо, в котором предупредили, что в лабораториях ИИ происходит “неконтролируемая гонка”, и призвали приостановить создание гигантского искусственного интеллекта.

В письме предупреждалось, что эти лаборатории разрабатывают “все более мощные цифровые разумы, которые никто, даже их создатели, не может понять, предсказать или надежно контролировать”.

Существует также обеспокоенность по поводу его более широкого применения. Комитет Палаты лордов на этой неделе заслушал показания сэра Лоуренса Фридмана, профессора военных исследований, который рассказал об опасениях по поводу того, как искусственный интеллект может быть использован в будущих войнах.

Сам профессор Рассел ранее работал в ООН над вопросами контроля за соблюдением договора о запрещении ядерных испытаний, и ранее в этом году его попросили поработать с Уайтхоллом. Он сказал: “Министерство иностранных дел… поговорило со многими людьми, и они пришли к выводу, что потеря контроля оказалась вероятным и чрезвычайно важным результатом. И тогда правительство выступило с нормативным подходом, который гласит: «здесь не на что смотреть… мы будем приветствовать индустрию искусственного интеллекта”, как если бы речь шла о производстве автомобилей или о чем-то подобном. Я думаю, мы что-то сделали не так с самого начала, когда были настолько увлечены идеей понимания и создания интеллекта, что не задумывались о том, для чего этот интеллект будет нужен”.

“Если только его единственная цель не состоит в том, чтобы приносить пользу людям, вы фактически создаете конкурента – и это было бы, очевидно, глупостью. Нам не нужны системы, имитирующие человеческое <span class="wp-tooltip" title="Целеориентированная активность животного организма служащая для осуществления контакта с окружающим миром В основе поведения лежат потребности животного организма над которыми надстраиваются исполнительные действия служащие… По сути, вы обучаете их ставить перед собой цели, подобные человеческим, и добиваться этих целей. Вы можете только представить, насколько катастрофичным было бы иметь действительно способные системы, которые преследовали бы такого рода цели”, – предостерегает эксперт.

Источник

Share
Published by

Recent Posts

Эксперты объяснили, что скрывается за требованием проектировать «однушки» не менее 28 квадратных метров

В столице запретили проектировать новое жилье с площадью однокомнатной квартиры меньше 28, а двухкомнатной меньше…

30 минут ago

Ветеран спецслужб подчеркнул, что стрелявшему в Фицо помог преклонный возраст

Вооруженный преступник едва не оборвал жизнь словацкого премьер-министра. Похоже, история покушений неадекватных террористов-одиночек на высших…

2 часа ago

Стали известны подробности задержания закопавшего в парке человеческий эмбрион мигранта

Уроженец Кыргызстана, который в ночь на среду в московском парке «Кусково» закапывал эмбрион, до сих…

2 часа ago

Планета размером с Землю найдена астрономами у крошечной звезды

Вокруг одной из маленьких звездных систем астрономы обнаружили совершенно новый мир: экзопланету размером с землю,…

3 часа ago

Авторитета Шишкана признали виновным в убийствах и вымогательствах

Во 2-м Западном окружном военном суде в четверг был полностью оглашен вердикт присяжных в отношении…

5 часов ago

Названа причина, по которой власти временно отменили запрет на экспорт бензина: «Девать попросту некуда»

Правительство отменило запрет на экспорт бензина, но решение это носит тестовый, экспериментальный, а не бессрочный…

7 часов ago

This website uses cookies.