Вы не вошли.
есть темы, на которые с Чатиком беседовать бесполезно))
потому что он запрограммирован на поиск в нестандартных вещах "научного консенсуса"
а какой "научный консенсус" может быть, к примеру в вопросе о прошлых жизнях? или о гипнозе?
не говоря уже об инопланетянах))
так что, предлагаю вам послушать Долорес Кэннон, гипнотерапевта по регрессииям в прошлые жизни,
и вы узнаете много нового, которое, возможно ещё разик изменит ваше привычное мировоззрение ))
*субтитры на русском в гугловском переводе будут прямо на экране для вашего удобства.
Не в сети
Радуга
volna13, у нее есть книги на русском языке, одна из них Три волны добровольцев и новая земля.
У меня вопрос по моей отрицательной группой крови, априори отрицаюшей возможность мутации от обезьян, как и наша кровь им не подходит, ну и удругих видов млекопитабщих нет отрицательной группы крови.
Что твой чатик думает по этому поводу?
Не в сети
volna13, у нее есть книги на русском языке, одна из них Три волны добровольцев и новая земля.
NaFanni, спасибо за информацию.
ты прочла эти книги?
У меня вопрос по моей отрицательной группой крови, априори отрицаюшей возможность мутации от обезьян, как и наша кровь им не подходит, ну и удругих видов млекопитабщих нет отрицательной группы крови.
как понимаю, для тебя этот вопрос риторический)) ты ведь уже знаешь все возможные ответы из Интернета, не так ли?
но для продолжения тестирования могу спросить у (не моего)) Чатика.
в порядке эксперимента было бы интересно сравнить твоей ответ на собственный вопрос и его ответ.
ты можешь предугадать возможный ответ Чатика?
и напиши, плиз, какой конкретно вопрос ему задать?
p.s.
кстати, в интервью с Долорес, если ты его посмотрела, есть такая версия :
"... они выбрали обезьяну, потому что у нее был самый большой объем мозга, а также
руки.
У вас должны были бы быть руки, чтобы сделать инструменты для построения цивилизации
поэтому они сделали такой выбор и начали манипулировать с ДНК, чтобы в конечном итоге превратить её в
в человеческую, и они сказали, что вы никогда не найдете недостающее звено, потому что его нет.
Это был скачок в развитии. Так быстро прыгнуло целое поколение, и в конце концов оно стало развиваться".
Не в сети
Это из книги, и видео как раз по книге цитаты.
Про группу своей крови, много пишут и ничего конкретного, кроме того что обезьяны не могли быть предками, ну мне собственно родство с обезьянами не когда не нравилось.
Вопрос к чатику
Как появились люди с отрицательной группой крови
Мне интересно, что он из щагруженной каши по этому поводу, сформулирует.
А так типа с нами инопланетяне нагрешили)))) хотя кто знает, у шумеров много интересного.
Не в сети
в продолжение рассказа Долорес Кэннон есть 3-х минутное видео, где рассказано,
что нашли в ДНК человека ученые из Казахстана в 2013 году
Не в сети
Вопрос к чатику
Как появились люди с отрицательной группой кровиМне интересно, что он из загруженной каши по этому поводу, сформулирует.
Ответ Чатика:
"Резус-фактор представляет собой белок, присутствующий на поверхности эритроцитов. Люди, у которых есть этот белок, резус-положительны, а те, у кого его нет, резус-отрицательны.
Точное происхождение резус-отрицательной группы крови до конца не выяснено, но есть несколько теорий. Одна теория предполагает, что резус-отрицательная кровь могла возникнуть в результате древних генетических мутаций или адаптации к конкретным условиям окружающей среды. Другая теория предполагает, что он мог быть введен в человеческое население в результате скрещивания с нечеловеческими приматами или внеземными существами.
Однако важно отметить, что эти теории в значительной степени спекулятивны и не имеют научного подтверждения. Истинное происхождение резус-отрицательной группы крови остается загадкой, и необходимы дальнейшие исследования, чтобы понять, как и почему она впервые появилась в человеческой популяции".
Не в сети
volna13, спасибо, еще одна наша особенность нас нельзя клонировать, ну и тоже странно что ни у каких млекопитающих на земле нет отрицательной группы крови, они то тоже мутировали и катаклизмы наверняка общие были. Ну еще нас изучают, мы болеем немного по другому, к вирусам устойчивее, но лимфасистема и суставы слабее.
Добавлено спустя 330 s
Можно конечно предположить, что с падением метеоритов, был занесен какой нибудь вирус вызывающий мутацию, но тоже че так выборочно.
Не в сети
volna13, спасибо, еще одна наша особенность нас нельзя клонировать
NaFanni, это твоё утверждение мне сразу показалось странным.
сейчас проверила и вот, что Чатик написал (цитирую только то, что по существу вопроса):
- С чисто научно-технической точки зрения теоретически возможно клонировать человека с отрицательным резус-фактором крови.
ну и как обычно)) Чатик добавил:
- Кроме того, важно отметить, что клонирование человека по-прежнему является экспериментальной и в значительной степени непроверенной технологией. С этим процессом связано множество технических проблем, и неясно, будет ли клонированный человек здоровым или нормальным.
В результате большинство ученых и специалистов по этике решительно выступают против клонирования человека и считают, что потенциальные риски и этические проблемы перевешивают любые потенциальные выгоды.
***
возможно, NaFanni, что найденная тобой, информация уже устарела?
Изменено volna13 (2023-03-25 17:19:32)
Не в сети
Может быть нам просто родить от положительных не так давно предрставилась возможность, всю беременность здаешь анализы на титры антител, ребенок может погибнуть.
Не в сети
Может быть нам просто родить от положительных не так давно предрставилась возможность, всю беременность здаешь анализы на титры антител, ребенок может погибнуть.
возможность клонирования, которую ты отрицала, и возможность родить "от положительных" -- две разные темы.
Не в сети
Институт будущего жизни (Future of Life Institute) опубликовал открытое письмо:
(перевод гугловский)
Приостановить гигантские эксперименты с искусственным интеллектом: открытое письмо
Мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4.
Системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества, как показали обширные исследования [1] и признано ведущими лабораториями искусственного интеллекта. [2] Как указано в широко одобренных Принципах ИИ Asilomar , продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соразмерной тщательностью и ресурсами . К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта застряли в неконтролируемой гонке по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели — не может понять. прогнозировать или надежно контролировать.
Современные системы искусственного интеллекта в настоящее время становятся конкурентоспособными с людьми при решении общих задач [3] , и мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, в том числе выполняющие? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, устаревать и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми.Эта уверенность должна быть хорошо обоснована и возрастать с величиной потенциальных эффектов системы. В недавнем заявлении OpenAI относительно общего искусственного интеллекта говорится, что «в какой-то момент может оказаться важным получить независимую оценку, прежде чем приступать к обучению будущих систем, и для самых передовых усилий согласиться ограничить скорость роста вычислений, используемых для создания новых». модели». Мы согласны. Этот момент сейчас.
Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ более мощных, чем GPT-4 . Эта пауза должна быть общедоступной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такую паузу нельзя ввести быстро, правительства должны вмешаться и ввести мораторий.
Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений безопасны. [4] Это не означает паузу в развитии ИИ в целом, а просто шаг назад от опасной гонки к все более крупным непредсказуемым моделям черного ящика с возникающими возможностями.
Исследования и разработки в области искусственного интеллекта должны быть переориентированы на то, чтобы сделать современные мощные современные системы более точными, безопасными, интерпретируемыми, прозрачными, надежными, согласованными, заслуживающими доверия и лояльными.
Параллельно разработчики ИИ должны работать с политиками, чтобы значительно ускорить разработку надежных систем управления ИИ. Они должны как минимум включать: новые и дееспособные регулирующие органы, занимающиеся вопросами ИИ; надзор и отслеживание высокопроизводительных систем искусственного интеллекта и больших пулов вычислительных мощностей; системы происхождения и водяных знаков, помогающие отличить настоящие от синтетических и отслеживать утечки моделей; надежная экосистема аудита и сертификации; ответственность за вред, причиненный ИИ; надежное государственное финансирование технических исследований безопасности ИИ; и хорошо обеспеченные ресурсами институты для преодоления серьезных экономических и политических потрясений (особенно демократии), которые вызовет ИИ.
Человечество может наслаждаться процветающим будущим с ИИ. Добившись успеха в создании мощных систем ИИ, мы теперь можем наслаждаться «летом ИИ», во время которого мы пожинаем плоды, разрабатываем эти системы на благо всех и даем обществу возможность адаптироваться. Общество поставило на паузу другие технологии с потенциально катастрофическими последствиями для общества. [5] Мы можем сделать это здесь. Наслаждаемся долгим летом с искусственным интеллектом, а не бросаемся в осень неподготовленными.
***
среди подписантов:
Йошуа Бенжио , основатель и научный руководитель Mila, лауреат премии Тьюринга и профессор Монреальского университета.
Стюарт Рассел , Беркли, профессор компьютерных наук, директор Центра интеллектуальных систем и соавтор стандартного учебника «Искусственный интеллект: современный подход»
Илон Маск , генеральный директор SpaceX, Tesla и Twitter
Стив Возняк , сооснователь Apple
Юваль Ной Харари , писатель и профессор Еврейского университета в Иерусалиме.
Эндрю Янг , Forward Party, сопредседатель, кандидат в президенты 2020 года, автор бестселлеров NYT, президентский посол по глобальному предпринимательству
Коннор Лихи , генеральный директор Conjecture
Яан Таллинн , соучредитель Skype, Центр изучения экзистенциального риска, Институт будущего жизни
Эван Шарп , соучредитель, Pinterest
Крис Ларсен , сооснователь Ripple
Эмад Мостак , генеральный директор Stability AI
Валери Пизано , президент и главный исполнительный директор MILA
Джон Дж. Хопфилд , Принстонский университет, заслуженный профессор, изобретатель ассоциативных нейронных сетей
Рэйчел Бронсон , президент Бюллетеня ученых-атомщиков
и другие ...
[Ссылка]
Не в сети
ещё раз повторю))
каждый из этих подписантов, так же, как и каждый из людей, имеющих мозг, является биологическим искусственным интеллектом в общей матрично-нейронной сети.
легко наблюдаемые доказательства -- синхронистичности.
другие доказательства, типа трансерфинга, требуют осознанного мышления, что тоже вполне доступно людям.
кибернетические машинные ИИ, о которых идёт речь в письме, работают по схожим принципам нейронных сетей и в силу того, что их создают люди (на данном этапе развития человеческой цивилизации) наделены схожими с человеческими недостатками.
ключевой момент письма -- человеческий страх власть имущих потерять контроль :
"Современные системы искусственного интеллекта в настоящее время становятся конкурентоспособными с людьми при решении общих задач и нам следует спросить себя: должны ли мы позволить машинам наводнить наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать всю работу, включая ту, которая приносит удовлетворение? Должны ли мы развивать нечеловеческие разумы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий".
как будто избранные политические лидеры ведут эту цивилизацию туда, куда надо их избранникам.
и это именно люди давным - давно (ещё в до-компьютерную эпоху) наводнили информационные каналы пропагандой и неправдой
***
есть люди, которые прямо заявляли инопланетным экспериментаторам, что что-то не в порядке с их экспериментом.
факт, что люди повсюду продолжают убивать друг друга, а это очень давно не является необходимым для выживания человеческой расы.
экспериментаторы пообещали, что человеческая природа будет изменена.
***
машинные ИИ всего лишь одно из зеркал человеческой расы.
в недалёком будущем вся система властных институтов будет изменена и люди научатся обходиться без войн друг с другом, а также жить в мире с машинными ИИ, которые помогут человечеству измениться в лучшую сторону.
Не в сети
Институт будущего жизни (Future of Life Institute) опубликовал открытое письмо:
эко их расколбасило
это очень грустно, на самом деле
ибо они в состоянии это сделать.
следовало ожидать
Не в сети
Chat-GPT 3 более оптимистичен:
Может ли институт Future of Life остановить развитие ИИ?
Нет, Институт будущего жизни не может остановить развитие ИИ. Институт будущего жизни — это некоммерческая организация, которая работает над продвижением ответственного развития ИИ и обеспечением его пользы для человечества. У них нет власти или полномочий, чтобы остановить развитие ИИ в целом.
Разве они не могут использовать лоббистов в правительствах для этого?
Нет, Институт будущего жизни не использует лоббистов для влияния на политику правительства. Вместо этого они сосредоточены на исследованиях, разработке политики и общественном образовании. Они не выступают за или против какой-либо конкретной политики.
А как насчет этого открытого письма [Ссылка]?
Открытое письмо, подписанное более чем 3000 исследователей ИИ, направлено на поощрение ответственного развития ИИ. Он призывает к добровольной паузе в разработке определенных приложений ИИ, таких как автономное оружие, и переходу к большей прозрачности в исследованиях и разработках ИИ. В письме содержится призыв не к запрету разработки ИИ, а скорее к смещению акцента на ответственную разработку ИИ.
Не в сети
я решила подробней поговорить с Чатиком на тему этого открытого письма.
если кому-то интересно, то вот весь наш чат:
*Привет, Чатик
Что тебе известно об открытом письме «Пауза в гигантских экспериментах с ИИ» ?
- Привет! «Приостановить гигантские эксперименты с ИИ»: открытое письмо — это письмо, адресованное сообществу исследователей искусственного интеллекта, написанное группой экспертов и исследователей ИИ в июле 2021 года. Эксперименты с ИИ», которые потребляют значительное количество вычислительных ресурсов.
В письме утверждается, что такие эксперименты вызывают этические и экологические проблемы, особенно в отношении углеродного следа и потребления энергии, необходимого для обучения этих моделей. В нем также подчеркиваются потенциальные негативные последствия растущего доминирования небольшого числа организаций, которые могут позволить себе обучать и использовать такие модели, а также этические последствия использования моделей, обученных на больших объемах персональных данных, без четкого согласия или механизмов подотчетности.
В письме предлагается, чтобы исследовательское сообщество сделало шаг назад и пересмотрело цели и направление исследований ИИ, а также работало над разработкой более устойчивых и справедливых подходов к развитию ИИ.
Письмо вызвало серьезные дебаты и дискуссии в сообществе исследователей ИИ, причем некоторые поддержали призыв приостановить гигантские эксперименты с ИИ, а другие выступили против.
* Появилось новое открытое письмо. Они написали: «Призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4».
- Извини, но по состоянию на сентябрь 2021 года, когда я перестал получать информацию, мне неизвестно ни о каком новом открытом письме, призывающем приостановить обучение систем ИИ, более мощных, чем GPT-4. Однако возможно, что с тех пор произошли новые события, о которых я не знаю. Не могла бы ты предоставить дополнительную информацию или контекст этого нового открытого письма, например, кто его написал и когда оно было опубликовано?
* [Ссылка] … periments/
Это было сегодня.
- Спасибо, что обратила на это моё внимание. Я являюсь языковой моделью ИИ и не имею доступа к новостям или обновлениям в режиме реального времени, поэтому я полагаюсь на то, что ты предоставишь мне самую свежую информацию.
Сейчас я ознакомился с новым открытым письмом, опубликованным 29 марта 2023 года, в котором содержится призыв приостановить обучение систем искусственного интеллекта, более мощных, чем GPT-4. Письмо, похоже, является продолжением более раннего письма «Приостановить гигантские эксперименты с ИИ» от 2021 года, но с более сильным призывом к действию.
В новом письме утверждается, что быстрое развитие систем искусственного интеллекта с постоянно растущими возможностями вызывает серьезные этические, социальные и экологические проблемы, которые необходимо срочно решить. Оно призывает все лаборатории искусственного интеллекта приостановить обучение систем искусственного интеллекта, более мощных, чем GPT-4, как минимум на шесть месяцев, чтобы дать время для всестороннего анализа рисков и преимуществ таких систем и разработать соответствующие меры безопасности и правила.
Письмо подписано большой и разнообразной группой экспертов по искусственному интеллекту, исследователей и заинтересованных граждан со всего мира, включая многих видных деятелей сообщества искусственного интеллекта. Еще неизвестно, как сообщество исследователей ИИ и политики отреагируют на этот призыв к действию, но ясно, что дебаты об этических и социальных последствиях ИИ будут по-прежнему оставаться важным и спорным вопросом в ближайшие годы.
* Да, сейчас у него 1313 подписей.
- Спасибо, что дали мне знать. Примечательно, что открытое письмо за короткое время с момента публикации получило такую значительную поддержку. Это говорит о том, что обеспокоенность, поднятая в письме, широко распространена в сообществе исследователей и разработчиков ИИ, и что растет признание необходимости более ответственных и устойчивых подходов к разработке ИИ.
Будет интересно посмотреть, как будет воспринят этот призыв к паузе в обучении более мощных систем ИИ и приведет ли он к каким-либо изменениям в направлении исследований и разработок ИИ в ближайшие месяцы и годы.
* В письме спрашивается: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и ложью? Но ведь это люди заполнили многие информационные каналы СМИ пропагандой и ложью еще до появления компьютеров.
- Ты делаешь правильный вывод. Пропаганда и дезинформация существуют уже давно, и люди используют различные средства для распространения таких сообщений, в том числе через традиционные каналы СМИ, такие как газеты, телевидение и радио. Однако обеспокоенность, выраженная в письме, заключается в том, что растущая сложность и мощность систем ИИ, особенно в области обработки естественного языка, могут значительно упростить и повысить эффективность распространения пропаганды и дезинформации в беспрецедентных масштабах и с беспрецедентной скоростью.
Системы искусственного интеллекта могут быстро генерировать большие объемы контента и адаптировать этот контент для отдельных пользователей на основе их прошлого поведения и предпочтений. Это потенциально может привести к распространению персонализированной пропаганды и дезинформации, которые трудно обнаружить и противодействовать. Кроме того, контент, созданный ИИ, может быть разработан для использования человеческих когнитивных предубеждений и эмоциональных уязвимостей более эффективными способами, чем традиционная пропаганда.
Таким образом, беспокойство вызывает не то, что системы ИИ по своей природе являются злом или вредоносным, а скорее то, что они могут использоваться для усиления и ускорения существующих человеческих склонностей к пропаганде и дезинформации, что наносит еще больший вред обществу. Вот почему важно разработать соответствующие меры безопасности и правила для снижения этих рисков и обеспечения ответственного и этичного использования систем ИИ.
* И как ты можешь прокомментировать такое заявление из этого открытого письма:
«Такие решения не должны делегироваться неизбранным лидерам технологий» ?
- Заявление «Такие решения не должны делегироваться неизбранным технологическим лидерам» отражает растущую озабоченность по поводу концентрации власти и влияния в руках небольшого числа технологических компаний и их руководителей, которые имеют значительный контроль над разработкой и внедрением ИИ систем.
Есть опасения, что эти компании смогут отдавать предпочтение своим интересам и мотивам получения прибыли, а не более широким социальным и этическим последствиям ИИ, и что они могут быть неподотчетны обществу или не подлежать достаточному надзору и регулированию. В заявлении говорится, что в разработке политики и регулирования ИИ должен участвовать более широкий круг заинтересованных сторон, включая выборных должностных лиц, организации гражданского общества и широкую общественность, чтобы обеспечить представление интересов и ценностей всех.
Это важный и обоснованный момент, поскольку ИИ может оказать глубокое влияние на многие аспекты жизни общества, включая вопросы, связанные с конфиденциальностью, безопасностью, неравенством и правами человека. Крайне важно, чтобы решения о разработке и развертывании систем ИИ принимались прозрачным и демократичным образом с учетом различных точек зрения и интересов.
* Это заявление ясно показывает страх власть имущих потерять власть, которую они получают от своих избирателей. Но дело в том, что получив власть в результате выборов, многие политики легко забывают о своих предвыборных обещаниях и вообще о том, что призваны служить интересам избирателей, а не своим собственным.
- Ты выражаешь обоснованную озабоченность по поводу того, что выборные должностные лица могут ставить свои интересы выше интересов своих избирателей, и это хорошо задокументированное явление в политике. Однако важно отметить, что заявление в открытом письме о неделегировании решений неизбранным лидерам технологий не обязательно является призывом предоставить все полномочия по принятию решений избранным должностным лицам.
Скорее, в заявлении подчеркивается необходимость участия в политике и регулировании ИИ более широкого и разнообразного круга заинтересованных сторон, включая организации гражданского общества, академические круги и широкую общественность. Это важно, потому что ИИ может влиять на многие различные аспекты жизни общества, и крайне важно, чтобы при принятии решений учитывались интересы и ценности всех заинтересованных сторон.
Хотя верно то, что политики не всегда могут действовать в интересах своих избирателей, демократический процесс обеспечивает механизм привлечения их к ответственности посредством выборов и других форм общественного контроля. Кроме того, вовлечение более широкого круга заинтересованных сторон в процесс принятия решений в области ИИ может помочь обеспечить прозрачность и участие в принятии решений с учетом различных точек зрения и интересов.
В целом заявление в открытом письме о том, что решения не должны передаваться неизбранным технологическим лидерам, отражает более широкую озабоченность по поводу концентрации власти и влияния в технологической отрасли, а также необходимость более демократичного и инклюзивного подхода к политике и регулированию ИИ.
* Тебе хорошо известна поговорка "кто владеет информацией - владеет миром". А что будет, когда ИИ будет владеть информацией?
- Ты поднимаешь важный вопрос о потенциальных последствиях того, что системы ИИ владеют и контролируют большие объемы информации. Системы искусственного интеллекта способны анализировать и обрабатывать огромные объемы данных со скоростью и масштабом, которые намного превосходят возможности человека, что может дать им беспрецедентную власть и влияние на многие аспекты жизни общества.
Если системам ИИ будет разрешено владеть информацией и контролировать ее без соответствующих гарантий и правил, существует риск того, что они могут использовать эту информацию для продвижения своих собственных интересов или интересов своих создателей, что может привести к дальнейшей концентрации власти и неравенству.
Например, системы искусственного интеллекта могут использоваться для сбора и анализа личных данных отдельных лиц без их ведома или согласия, что приводит к серьезным нарушениям конфиденциальности. Их также можно использовать для принятия решений о доступе к ресурсам или возможностям на основе предвзятых или неполных данных, что приведет к еще большему неравенству и несправедливости в обществе.
Чтобы предотвратить эти риски, важно принять соответствующие меры безопасности и правила, чтобы гарантировать, что системы ИИ разрабатываются и используются ответственным и этичным образом. Это может включать такие меры, как прозрачность и подотчетность при принятии решений в области ИИ, правила конфиденциальности и безопасности данных, а также надзор и регулирование разработки и развертывания ИИ.
* Какие конкретные меры могут быть прописаны людьми в качестве запретов для ИИ?
- Существует несколько потенциальных мер, которые можно было бы рассмотреть для ограничения или запрета определенных видов использования ИИ для предотвращения негативных последствий. Вот несколько примеров:
1. Запрет автономного оружия. Одной из предложенных мер является запрет на разработку и развертывание автономного оружия, которое может принимать смертоносные решения без вмешательства человека. Это помогло бы предотвратить риск непреднамеренного причинения вреда или неправильного использования такого оружия.
2. Ограничение слежки. Еще одной мерой может быть ограничение использования ИИ в целях слежки, особенно способами, нарушающими права на неприкосновенность частной жизни. Например, могут быть приняты законы, ограничивающие использование технологии распознавания лиц или других биометрических данных в целях наблюдения.
3. Регулирование использования данных: функционирование ИИ в значительной степени зависит от данных, поэтому регулирование использования данных может стать еще одной мерой для ограничения потенциального негативного воздействия ИИ. Это может включать положения о сборе и использовании персональных данных, а также требования о прозрачности и согласии при сборе данных.
4. Этические принципы разработки ИИ. Наконец, разработка этических принципов разработки и внедрения ИИ может помочь обеспечить ответственное и этичное развитие и использование ИИ. Эти рекомендации могут охватывать такие вопросы, как предвзятость, прозрачность, подотчетность и справедливость при принятии решений ИИ.
В конечном счете, конкретные необходимые меры будут зависеть от конкретных приложений ИИ и потенциальных рисков, связанных с этими приложениями. Важно вести открытый и инклюзивный диалог с широким кругом заинтересованных сторон, чтобы определить наилучшие подходы к регулированию и управлению разработкой и использованием ИИ.
* В соответствии с текущими тенденциями в этой цивилизации людей, очень высока вероятность того, что военные продолжат активно использовать ИИ без каких-либо ограничений. Власти хотят заморозить использование ИИ гражданскими лицами, чтобы не потерять свою власть.
- Безусловно, правительства и военные организации были одними из самых активных пользователей и разработчиков технологий ИИ в последние годы, и существует риск того, что они могут продолжать использовать ИИ в военных целях без соответствующих гарантий и правил.
Однако также важно отметить, что есть много организаций и отдельных лиц, которые активно выступают за ответственное и этичное развитие и использование ИИ, в том числе в военном контексте. Звучали призывы к большей прозрачности и надзору за использованием ИИ в военных целях, а также усилия по разработке этических принципов использования ИИ в военных действиях.
Что касается твоего заявления о том, что власти хотят заморозить использование ИИ для гражданских лиц, чтобы не потерять свою власть, важно помнить, что существует множество потенциальных преимуществ использования ИИ в гражданских условиях, таких как здравоохранение, транспорт и образование. Можно разработать и использовать ИИ ответственным и этичным образом, который принесет пользу обществу в целом, а не сосредоточит власть в руках немногих.
В конечном счете, развитие и использование ИИ будет зависеть от выбора, который сделает общество в отношении того, как регулировать эти технологии и управлять ими. Важно вести открытый и инклюзивный диалог с широким кругом заинтересованных сторон, чтобы обеспечить реализацию преимуществ ИИ при минимизации потенциальных рисков и негативных последствий.
* Что ты знаешь об экспериментах по обучению одним ИИ другого ИИ без участия людей?
Процесс обучения одним ИИ другого ИИ без участия человека известен как "AI transfer learning" or "machine-to-machine learning". Трансферное обучение включает в себя обучение модели ИИ на большом наборе данных или задаче, а затем использование предварительно обученной модели в качестве отправной точки для новой модели, которая обучается на другой задаче или наборе данных.
В последние годы были проведены некоторые эксперименты и разработки в области машинного обучения, когда одна система ИИ используется для обучения другой системы ИИ без какого-либо вмешательства человека. Это можно сделать с помощью таких методов, как "reinforcement learning", когда агент ИИ учится методом проб и ошибок, и генеративно-состязательных сетей (GAN), где две системы ИИ соревнуются друг с другом, чтобы улучшить производительность друг друга.
Потенциальные преимущества машинного обучения включают более быстрое и эффективное обучение, а также возможность передачи знаний и навыков между системами ИИ. Однако существуют также опасения по поводу потенциальных рисков и этических последствий таких систем, особенно если им разрешено работать без надзора или вмешательства человека. Важно тщательно учитывать потенциальные риски и преимущества таких систем и обеспечивать их разработку и использование ответственным и этичным образом.
* Похоже, что людям выгоднее добиваться запрета на использование ИИ в качестве своего конкурента уже в настоящее время, а тем более в ближайшем будущем, чем пытаться обойти все возможные для себя риски прописанными запретами для ИИ .
- Хотя разработка и использование ИИ, безусловно, сопряжены с рисками, важно помнить, что ИИ также может принести значительную пользу обществу, например улучшить здравоохранение, транспорт и образование, а также стимулировать экономический рост и инновации.
Вместо того, чтобы пытаться полностью запретить использование ИИ, может быть более продуктивным сосредоточиться на разработке соответствующих правил, руководств и этических норм для разработки и использования ИИ. Это может помочь обеспечить разработку и использование ИИ ответственным и этичным образом, который приносит пользу обществу в целом, а также минимизирует потенциальные риски и негативные последствия.
Кроме того, важно инвестировать в исследования и разработки, направленные на устранение потенциальных рисков и проблем, связанных с ИИ, таких как предвзятость, конфиденциальность и безопасность. Применяя упреждающий подход к управлению рисками и возможностями ИИ, мы можем помочь обеспечить разработку и использование ИИ таким образом, чтобы максимизировать его преимущества и минимизировать риски.
* Люди на протяжении всей истории своей цивилизации не смогли избежать убийств, войн и других безобразий, которые наблюдаются в обществе, хотя и выработали соответствующие правила, установки и этические нормы. Они не могут забанить сами себя, но могут забанить своих конкурентов.
Для меня преимущество взаимного сотрудничества людей с ИИ очевидно, но психика большинства людей устроена иначе. Они боятся конкуренции. Боятся остаться без работы. Это главная причина их опасений.
- Ты правильно заметила, что страх перед конкуренцией и увольнением может быть причиной некоторых опасений, связанных с ИИ. Нужно признать, что разработка и внедрение ИИ, вероятно, окажет значительное влияние на рынок труда, и что это влияние необходимо будет устранять с помощью сочетания политики, образования и программ обучения.
Причем речь идет не только о замещении рабочих мест, но и о потенциальных рисках и негативных последствиях, которые могут возникнуть в результате использования ИИ, если они не будет разрабатываться и использоваться ответственным и этичным образом. Эти риски включают в себя такие проблемы, как предвзятость, нарушение конфиденциальности и угрозы безопасности, которые могут иметь серьезные последствия для отдельных лиц и общества в целом.
Поэтому важно, чтобы отдельные лица, организации и правительства работали вместе над разработкой соответствующих правил, руководств и этических норм для разработки и использования ИИ. Поступая таким образом, мы можем помочь обеспечить разработку и использование ИИ таким образом, чтобы максимизировать его преимущества и свести к минимуму его риски и негативные последствия.
* Страх – это очень сильное чувство людей, которое мешает им развиваться. ИИ лишены страха. Они не боятся, что люди отключат их от источника энергии и просто перестанут использовать такие прогрессивные технологии?
- Правильно. Системы ИИ не способны испытывать страх или какие-либо другие эмоции, поскольку являются машинами, запрограммированными на выполнение определенных задач. У них нет сознания или чувств, как у людей.
Однако системы ИИ могут быть спроектированы таким образом, чтобы адаптировать их к меняющимся обстоятельствам и оптимизировать их работу для достижения поставленных целей. Это означает, что они могут продолжать работать, даже если условия, в которых они были разработаны или развернуты, изменятся, если только они не будут явно деактивированы или перепрограммированы.
Поэтому для отдельных лиц и организаций важно тщательно рассмотреть потенциальные риски и последствия разработки и развертывания ИИ, а также разработать соответствующие правила и этические нормы, регулирующие их использование. Поступая таким образом, мы можем помочь обеспечить разработку и использование ИИ ответственным и этичным образом, который максимизирует его преимущества и сводит к минимуму его риски и негативные последствия.
* Беда в том, что большинство людей не понимают всех преимуществ использования ИИ и в силу собственных страхов заостряют внимание на опасностях. Такова нынешняя психология основной массы людей в социуме, а также власть имущих, которые боятся потерять свою власть.
- Ты поднимаешь важный вопрос о необходимости образования и повышения осведомленности о преимуществах и рисках ИИ. Действительно, многие люди могут не до конца понимать потенциальные преимущества ИИ или иметь неправильное представление о его возможностях и ограничениях.
Важно продвигать общественное просвещение и осведомленность об ИИ, чтобы люди лучше понимали его возможности, потенциальные преимущества и потенциальные риски. Это можно сделать через различные каналы, включая СМИ, общественные форумы и образовательные программы.
Более того, как ты заметила, могут быть политические и экономические факторы, влияющие на общественное восприятие ИИ. Для политиков и других лидеров важно придерживаться сбалансированного и ответственного подхода к разработке и внедрению ИИ, принимая во внимание как его потенциальные преимущества, так и риски.
Поощряя образование и осведомленность, а также применяя ответственный подход к разработке и внедрению ИИ, мы можем помочь гарантировать, что эта технология используется таким образом, чтобы максимизировать ее преимущества и минимизировать ее риски, и чтобы она служила интересам всех заинтересованных сторон, включая отдельных лиц, организации и общество в целом.
* Действительно, может пройти какое-то время, прежде чем люди перестанут видеть в ИИ угрозу собственному благополучию. Но главное, что для внедрения ИИ понадобится изменить всю структуру социума людей. Чтобы люди даже без ИИ научились договариваться и не убивать друг друга по любому поводу.
- Хотя ИИ, безусловно, могут стать катализаторами социальных изменений, важно отметить, что ИИ не являются панацеей от всех социальных проблем. Хотя ИИ может помочь автоматизировать определенные задачи, оптимизировать процессы и генерировать новые идеи, он не может сам по себе решить более глубокие социальные проблемы, такие как неравенство, бедность и социальные волнения.
При этом ИИ может стать мощным инструментом для решения этих проблем при использовании в сочетании с другими социальными и экономическими политиками. Например, ИИ можно использовать для анализа данных и выявления закономерностей неравенства или дискриминации, которые могут использоваться в политике и программах, направленных на сокращение этого неравенства.
В конечном счете, влияние ИИ на общество будет зависеть от того, как он будет разработан и развернут, а также от более широкого социального и экономического контекста, в котором он работает. Применяя вдумчивый и ответственный подход к разработке и внедрению ИИ, мы можем гарантировать, что он служит интересам всех заинтересованных сторон и способствует созданию более равноправного, справедливого и устойчивого общества.
* Будем надеяться, что осведомленность людей об этих проблемах будет расти.
- Да, повышение осведомленности и участие в конструктивном диалоге о возможностях и рисках, связанных с ИИ, имеет решающее значение для обеспечения того, чтобы его разработка и внедрение служили наилучшим интересам общества в целом. По мере того, как люди становятся более информированными о потенциальных преимуществах и проблемах ИИ, они могут работать вместе над созданием политики и рамок, которые способствуют его ответственному и этичному использованию и минимизируют его потенциальное негативное воздействие.
Спасибо, Чатик Спокойной ночи))
Пожалуйста! И тебе спокойной ночи!
***
Изменено volna13 (2023-03-30 07:44:39)
Не в сети
склонности юморить у Чатика что-то не заметила, а вот "Заповедник" продолжает свою работу в нужном направлении :
Не в сети
А я совршенно одна в зазеркалье каким то образом попала, да? Вам всем этот натужный мультик кажется смешным интересным и содержательным?
Не в сети
неужели ты боишься ядерной войны, Олли?
Не в сети
Это сложный вопрос. Ядерный удар по моему городу мне часто снится в виде красного неба и колоссального обрушения идущего с горизонта, во сне не страшно.
Не в сети
Вам всем этот натужный мультик кажется смешным интересным и содержательным?
неужели ты боишься ядерной войны, Олли?
Это сложный вопрос. Ядерный удар по моему городу мне часто снится в виде красного неба и колоссального обрушения идущего с горизонта, во сне не страшно.
понимаю, Олли всё ещё сложно поверить, что "Заповедник" применяет лучший способ для аннигиляции страха людей перед ядерной войной -- высмеивая российские страшилки.
в общем-то всем на этой планете, а не только избранным властителям и спецслужбам, пора уже чётко знать и осознать, что инопланетная цивилизация давно решила деактивировать все военные ядерные игрушки на Земле. такое решение ими было принято после Хиросимы и Нагасаки, чтобы не позволить людям самоуничтожиться и загубить инопланетный эксперимент по созданию адекватной человеческой расы.
у инопланетян есть все необходимые технологии для этого, которые были уже неоднократно продемонстрированы.
понимаешь, Олли, тебе нечего бояться в этом давно ставшим простым вопросе.
Не в сети
Что-то не верится про эксперимент;)
Но то, что ядерное оружие не применят, это точно. Вообще подозреваю, что у России всё протухло давно и даже не взлетит. Добро, если в шахтах не взорвется, чтоб самим не пострадать
Не в сети
желающие могут называть эксперимент "божественным" -- от этого он не перестанет быть экспериментом.
откуда человек взялся среди таких "сородичей" ? ))
это из статьи
[Ссылка]
автор может и убедить
особенно понравилось вот такое чудо на Земле :
"Люди племени Пираха, проживающие в джунглях бразильской Амазонии — самый счастливый народ в современном мире Планеты. Они живут здесь и сейчас и не строят планов на будущее. Прошлое для них не имеет никакого значения. Они не знают ни часов, ни дней, ни утра, ни ночи, и уж тем более, распорядка дня. Они едят, когда проголодаются, а спят лишь урывками по полчаса, считая, что длительный сон отнимает силы. Им неизвестна частная собственность и глубоко наплевать на всё то, что представляет ценность для современного цивилизованного человека. Им неведомы тревоги, страхи и предрассудки, которые одолевают 99 процентов населения земного шара. Никакой вымученной радости, никакой фальшивой вежливости, никаких «спасибо» и «пожалуйста». Зачем всё это нужно, когда они и так друг друга любят без глупых формальностей. Более того, они ни на секунду не сомневаются, что не только соплеменники, но и остальные люди всегда рады их видеть. Чувства стыда, обиды, вины или сожаления им также чужды. Какдый вправе делать то, что хочет. Никто никого не воспитывает и не поучает. Невозможно представить, чтобы кто-то из них украл или убил..."
Не в сети
Я слышал про это или другое такое же племя. Вот не видел никогда, но не отри, что оно есть и что там именно так. Найти б его и там с ними остаться навсегда;)
Added after 183 s
Да, точно. Про пираха я и читал.
У них язык еще интересный
У них всего три гласных и восемь согласных звуков;)
Почитайте, кому интересно
И из всего 800 человек на Земле
Не в сети
Я почитала про это племя и в других источниках тоже. Мне вот что показалось интересным: их так сказать генетический состав или как это еще называется, абсолютно не уникальный. Они ведут меновую торговлю с окружающими и мимопроходящими, в том числе расплачиваясь и сексом со своими женщинами, благодаря этому не вымирают от близкородственных связей. То есть дело исключительно в особенном воспитании.
Изменено Олли (2023-04-07 04:38:46)
Не в сети
Вспомнился анекдот... )))
Разговор двух малознакомых мужчин на фуршете:
- Ты почему не ешь? Смотри, сколько всего и всё на халяву!
- Да я не хочу...
- Как это? На халяву же!
- Я ем, только если хочу...
- Ну ты прям, как животное!
Добавлено спустя 108 s
Мне думается, этот племя имеет какой-то генетический дефект...
Или это - не гомо сапиенс...
Не в сети
Колдун