В растущем страхе перед искусственным интеллектом обвинили «Терминатора» - НОВОСТИ ГОРОДОВ
Home » Общество » В растущем страхе перед искусственным интеллектом обвинили «Терминатора»

В растущем страхе перед искусственным интеллектом обвинили «Терминатора»

«Терминатора» и другие научно-фантастические фильмы обвиняют в озабоченности общественности по поводу искусственного интеллекта. Есть опасения, что суперсовременная технология может уничтожить человечество, и к этому риску следует относиться с такой же безотлагательностью, как к пандемиям или ядерной войне, но не слишком ли сильно наши страхи основаны на том, что мы видели в кино? Похоже, сторонники развития ИИ перешли в контрнаступление на обеспокоенную публику.

фото: соцсети

Раздаются призывы к более широкому информированию общественности о будущей роли искусственного интеллекта на фоне заявлений о том, что страхи многих людей основаны на фильмах, отмечает канал Sky News.

Рашик Пармар, исполнительный директор BCS, Дипломированного института информационных технологий, говорит, что голливудские блокбастеры, такие как «Терминатор», «укоренили» обеспокоенность общественности по поводу искусственного интеллекта.

Его слова прозвучали после того, как базирующийся в Сан-Франциско Центр безопасности искусственного интеллекта опубликовал письмо с предупреждением, что технология может уничтожить человечество, и к этому риску следует относиться с такой же безотлагательностью, как к пандемиям или ядерной войне.

Пармар утверждает: «должен быть здоровый скептицизм в отношении крупных технологий и того, как они используют искусственный интеллект, вот почему регулирование является ключом к завоеванию общественного доверия. Но многие из наших укоренившихся страхов и тревог также проистекают из фильмов, средств массовой информации и книг, таких как характеристики искусственного интеллекта в «Из машины«, «Терминаторе» и даже возвращаясь к идеям Айзека Азимова, которые вдохновили фильм «Я, робот».»

В то время как искусственный интеллект может выполнять задачи, спасающие жизни, такие как алгоритмы анализа медицинских изображений, таких как рентгеновские снимки и ультразвуки, его быстрорастущие возможности и все более широкое использование с помощью таких сервисов, как чат-бот ChatGPT, вызывают опасения.

В прошлом месяце ведущий британский специалист по информатике Джеффри Хинтон, считающийся «крестным отцом искусственного интеллекта», покинул свою должность в Google с предупреждением, что ИИ может подпитывать дезинформацию и оставить огромное количество людей без работы.

В последние месяцы регулирование искусственного интеллекта стало предметом пристального внимания правительств по всему миру.

Ранее в этом месяцебританской премьер-министр Риши Сунак провел переговоры с руководителями компании OpenAI, стоящей за разработкой ChatGPT; а также Google DeepMind и Anthropic. Премьер-министр также встретился с Сундаром Пичаи, исполнительным директором материнской компании Google Alphabet, в Дарлингтонском экономическом кампусе.

Представитель Даунинг-стрит сказал: «Они говорили о достижении правильного баланса, чтобы обеспечить наличие надлежащих нормативных барьеров и одновременно продвигать инновации».

Пармар сказал, что регулирование необходимо для обеспечения того, чтобы ИИ «рос ответственно».

«Должны ли меняться фильмы и средства массовой информации? Нет. Это просто доказывает, что нам нужно больше просвещать общественность о реальности искусственного интеллекта, и чтобы он стал частью навыков и преподавания, которые мы получаем, когда мы очень молоды», — добавил он.

Между тем странное продолжение получила история с «убийством» американским военным дроном, работающим при помощи ИИ, своего собственного оператора во время симуляционных учений.

Как пишет The Guardian, теперь сообщается, что полковник ВВС США якобы “оговорился”, когда сказал на конференции Королевского аэронавтического общества в прошлом месяце, что беспилотник убил своего оператора во время имитационного испытания, потому что пилот пытался отменить его миссию.

«Путаница», если верить новой версии событий, началась с публикации в блоге the society поста, в котором описывалась презентация полковника Такера “Синко” Гамильтона, начальника отдела тестирования и эксплуатации искусственного интеллекта ВВС США и летчика-испытателя экспериментального истребителя, на саммите Future Combat Air and Space Capabilities в Лондоне в мае.

Согласно сообщению в блоге, полковник Гамильтон рассказал собравшимся, что в ходе симуляции для тестирования беспилотника, оснащенного искусственным интеллектом, обученного и стимулированного убивать свои цели, оператор в некоторых случаях инструктировал беспилотник не убивать свои цели, и беспилотник в ответ убивал оператора.

Комментарии вызвали глубокую озабоченность по поводу использования искусственного интеллекта в вооружении и обширные обсуждения в Интернете. Но ВВС США в четверг вечером опровергли факт проведения испытания. Королевское авиационное общество ответило в заявлении в пятницу, что Гамильтон отказался от своих комментариев и пояснил, что “имитация беспилотного летательного аппарата с искусственным интеллектом” была гипотетическим “мысленным экспериментом”.

“Мы никогда не проводили этот <span class="wp-tooltip" title="Исследовательская стратегия Характеризуется тем что в нем осуществляется целенаправленное наблюдение за каким-либо процессом в условиях регламентированного изменения отдельных характеристик условий его протекания При этом п, да нам и не нужно было бы этого делать, чтобы понять, что это правдоподобный результат”, — сказал Гамильтон.

Противоречие возникает по мере того, как правительство США начинает решать вопрос о том, как регулировать искусственный интеллект, пишет The Guardian. Опасения по поводу технологии были поддержаны специалистами по этике искусственного интеллекта и исследователями, которые утверждают, что, хотя у технологии есть амбициозные цели, такие как, например, потенциальное <span class="wp-tooltip" title="процесс рака, до ее внедрения все еще далеко. Между тем, они указывают на давние свидетельства существующего вреда, включая более широкое использование, порой ненадежных систем наблюдения, которые ошибочно идентифицируют чернокожих и смуглокожих людей и могут привести к чрезмерному контролю со стороны полиции и ложным арестам, увековечиванию дезинформации на многих платформах, а также потенциальный вред от использования зарождающихся технологий для власти и используйте оружие в кризисных зонах.

“Вы не сможете вести разговор об искусственном интеллекте, разведданных, машинном обучении, автономии, если вы не собираетесь говорить об этике и ИИ”, — сказал Гамильтон во время своей майской презентации.

Гамильтон утверждает, что “мысленный <span class="wp-tooltip" title="Исследовательская стратегия Характеризуется тем что в нем осуществляется целенаправленное наблюдение за каким-либо процессом в условиях регламентированного изменения отдельных характеристик условий его протекания При этом п” все еще стоит учитывать при выборе того, следует ли использовать искусственный интеллект в оружии и как именно.

“Несмотря на то, что это гипотетический пример, он иллюстрирует реальные проблемы, связанные с возможностями искусственного интеллекта, и именно поэтому Военно-воздушные силы привержены этическому развитию искусственного интеллекта”, — сказал он в заявлении, разъясняющем его первоначальные комментарии.

Со своей стороны, представитель ВВС США Энн Стефанек заявила, что комментарии полковника были вырваны из контекста. “Министерство военно-воздушных сил не проводило никаких подобных симуляций беспилотников с искусственным интеллектом и по-прежнему привержено этичному и ответственному использованию технологий искусственного интеллекта”, — сказал Стефанек.

Источник

Add a Comment

Ваш адрес email не будет опубликован. Обязательные поля помечены *