Вы не вошли.
для начала темы я озвучила интервью с СhatGPT.
в теме можно обсуждать всё, что связано с AI (ИИ).
p.s.
примите к сведению, что все, кто захочет здесь что-то написать, тем самым, своим участием в данной теме, выразит согласие,
что его посты из этой темы могут быть озвучены для Радио Волна Удачи любым голосом по моему выбору.
если же кто-то хочет, чтобы его пост (посты) были озвучены его собственным голосом - присылайте нужную аудиозапись своего голоса на мэйл.
Изменено volna13 (2023-07-20 16:04:28)
В сети
Колдун
в теме будут также появляться лучшие из архивных материалов по Трансерфингу.
сегодня это озвученная рассылка №203 "Трансерфинг или трансгрессия?".
в видео сделана разбивка по тайм-кодам и есть текстовый транскрипт.
В сети
Деловые письма эта штука пишет просто гениально. И за 3 минуты.
У меня отдел такие раньше 2 часа выдумывал. Не считая перекуры.
Не в сети
озвучила свою беседу, по сути интервью, с ChatGPT.
темой было то, что как только у людей появляется новая технология, военные сразу же стараются её захватить для использования в своих целях.
в описании к видео есть тайм-коды.
В сети
мне неизвестно какие специалисты по AI (ИИ) являются для вас авторитетными.
в продолжении вопроса о беспокойстве и страхах людей перед искусственным интеллектом
разъясняет Элени Василаки
Профессор Элени Василаки является заведующей кафедрой вычислительной неврологии и нейронной инженерии,
главой группы машинного обучения и директором отдела компьютерных наук Шеффилдского университета.
Ее работа сосредоточена на вычислительной нейробиологии и искусственном интеллекте, включая синаптическую пластичность;
обучение без учителя; и обучение с подкреплением. Элени разрабатывает вычислительные модели, направленные на углубление
нашего понимания механизмов обучения мозга. Она стремится раскрыть принципы, управляющие модификациями нейронных связей
при получении информации, с упором на неконтролируемое обучение и обучение с подкреплением.
Ниже её статья (в гугловском машинном переводе на русский) под заголовком:
Беспокоитесь о том, что ИИ захватит мир? Возможно, вы делаете некоторые довольно ненаучные предположения.
Стоит ли бояться искусственного интеллекта? Для меня это простой вопрос с еще более простым ответом из двух букв: нет. Но не все с этим согласны — многие люди, включая покойного физика Стивена Хокинга, высказывали опасения , что появление мощных систем искусственного интеллекта может означать конец человечества.
Ясно, что ваше мнение о том, захватит ли ИИ мир, будет зависеть от того, считаете ли вы, что он может развивать интеллектуальное поведение, превосходящее поведение людей — то, что называется « сверхразумом ». Итак, давайте посмотрим, насколько это вероятно, и почему есть много беспокойства по поводу будущего ИИ.
Люди склонны бояться того, чего они не понимают. Страх часто обвиняют в расизме, гомофобии и других источниках дискриминации. Так что неудивительно, что это относится и к новым технологиям – они часто окружены некой тайной. Некоторые технологические достижения кажутся почти нереалистичными, явно превосходящими ожидания, а в некоторых случаях и человеческие возможности.
Нет призрака в машине
Но давайте демистифицируем самые популярные методы искусственного интеллекта, известные под общим названием « машинное обучение ». Они позволяют машине изучить задачу без программирования с явными инструкциями. Это может показаться жутким, но правда в том, что все зависит от довольно приземленной статистики.
Машина, представляющая собой программу или, скорее, алгоритм, разработана с возможностью обнаружения взаимосвязей в предоставленных данных. Есть много различных методов, которые позволяют нам достичь этого. Например, мы можем предъявлять машине изображения рукописных букв (аз), одну за другой, и просить ее сообщать нам, какую букву мы показываем каждый раз по порядку. Мы уже предоставили возможные ответы – это может быть только один из (az). Машина в начале произносит букву наугад, а мы исправляем ее, давая правильный ответ. Мы также запрограммировали машину так, чтобы она перенастраивала себя так, чтобы в следующий раз, если она представила ту же букву, она с большей вероятностью дала нам правильный ответ на следующую. Как следствие, машина со временем улучшает свою работу и «научится» распознавать алфавит.
По сути, мы запрограммировали машину на использование общих отношений в данных для выполнения конкретной задачи. Например, все версии «а» структурно похожи, но отличаются от «б», и алгоритм может это использовать. Интересно, что после этапа обучения машина может применять полученные знания на новых образцах букв, например, написанных человеком, чей почерк машина никогда раньше не видела.
Однако люди умеют читать. Возможно, более интересным примером является искусственный игрок в го от Google Deepmind, который превзошел любого игрока-человека в своей игре. Он явно учится иначе, чем люди, играя с самим собой в ряд игр, в которые ни один человек не смог бы сыграть за всю свою жизнь. Он был специально проинструктирован побеждать и сказал, что действия, которые он предпринимает, определяют, выиграет он или нет. Также были озвучены правила игры. Играя в игру снова и снова, он может обнаружить в каждой ситуации лучшее действие, изобретая ходы, которые раньше не делал ни один человек.
Малыши против роботов
Делает ли это ИИ-игрока в Го умнее человека? Конечно нет. ИИ очень специализирован для определенных типов задач и не демонстрирует универсальности, которую делают люди. Люди годами развивают понимание мира, чего не достиг ни один ИИ и, похоже, не сможет достичь в ближайшее время.
Тот факт, что ИИ называют «интеллектуальным», в конечном итоге объясняется тем, что он может учиться. Но даже когда дело доходит до обучения, оно не идет ни в какое сравнение с людьми . На самом деле, малыши могут учиться, просто наблюдая за тем, как кто-то один раз решает задачу. ИИ, с другой стороны, нужны тонны данных и множество попыток, чтобы добиться успеха в очень специфических проблемах, и его знания трудно обобщить для задач, сильно отличающихся от тех, на которых обучались. Таким образом, в то время как люди быстро развивают умопомрачительный интеллект в первые несколько лет жизни, ключевые концепции, лежащие в основе машинного обучения, не так уж отличаются от того, что было одно или два десятилетия назад.
Мозги у малышей потрясающие. McImage/Shutterstock
Успех современного ИИ не столько связан с прорывом в новых методах, сколько с огромным объемом доступных данных и вычислительной мощности. Однако важно отметить, что даже бесконечное количество данных не даст ИИ человеческого интеллекта — сначала нам нужно добиться значительного прогресса в разработке методов искусственного «общего интеллекта» . Некоторые подходы к этому включают создание компьютерной модели человеческого мозга , к чему мы даже близко не подошли.
В конечном счете, из того, что ИИ может учиться, на самом деле не следует, что он внезапно изучит все аспекты человеческого интеллекта и перехитрит нас. Простого определения того, что такое человеческий интеллект, не существует, и мы, конечно, не имеем ни малейшего представления о том, как именно интеллект возникает в мозгу. Но даже если бы мы смогли это проработать, а затем создать ИИ, который научился бы становиться умнее, это не обязательно означает, что он был бы более успешным.
Лично меня больше беспокоит то, как люди используют ИИ. Алгоритмы машинного обучения часто рассматриваются как черные ящики, и меньше усилий прилагается для определения специфики решения, найденного нашими алгоритмами. Это важный аспект, которым часто пренебрегают, поскольку мы часто одержимы производительностью, а не пониманием. Понимание решений, обнаруженных этими системами, важно, потому что мы также можем оценить, являются ли они правильными или желательными решениями.
Если, например, мы неправильно обучаем нашу систему , мы также можем получить машину, которая научилась отношениям, которые в целом не выполняются. Скажем, например, что мы хотим спроектировать машину для оценки способностей потенциальных студентов-инженеров. Вероятно, ужасная идея, но давайте проследим ее ради аргумента. Традиционно в этой дисциплине преобладают мужчины, а это означает, что учебные образцы, скорее всего, будут взяты от предыдущих студентов-мужчин. Если мы, например, не убедимся, что обучающие данные сбалансированы, машина может прийти к выводу, что студенты-инженеры — мужчины, и неправильно применить его к будущим решениям .
Машинное обучение и искусственный интеллект — это инструменты. Их можно использовать правильно или неправильно, как и все остальное. Нас должно беспокоить то, как они используются, а не сами методы. Человеческая жадность и человеческая неразумность пугают меня гораздо больше, чем искусственный интеллект.
оригинал статьи на английском с линками на другие ресурсы здесь:
[Ссылка]
Изменено volna13 (2023-03-14 14:13:34)
В сети
Да по отдельности ИИ беспокойства не вызывает. Но мысли, что несколько разных ИИ в одной квартире вдруг сконектятся, подружатся и замыслят)) вот это напрягает.
Не в сети
Да по отдельности ИИ беспокойства не вызывает. Но мысли, что несколько разных ИИ в одной квартире вдруг сконектятся, подружатся и замыслят)) вот это напрягает.
вот как тебе ответил Чатик (так я называю теперь ChatGPT))
"Это явление можно объяснить концепцией «зловещей долины» в робототехнике и искусственном интеллекте. "Зловещая долина" относится к дискомфорту, который люди испытывают, взаимодействуя с роботами или искусственными существами, которые выглядят почти как люди, но не совсем.
В то время как людям может быть удобно взаимодействовать с отдельными системами ИИ, которые имеют четко определенные функции и ограничения, идея о том, что несколько ИИ взаимодействуют друг с другом и потенциально формируют отношения, может вызывать беспокойство, поскольку стирает грань между человеком и машиной таким образом, что это трудно понять человеческому мозгу.
Кроме того, есть опасения, что, если ИИ будут взаимодействовать и потенциально сотрудничать, они могут стать более интеллектуальными и потенциально представлять угрозу безопасности и благополучию человека. Этот страх подпитывался изображениями мошеннических ИИ в популярной культуре, таких как HAL в «2001: Космическая одиссея» и Скайнет во франшизе «Терминатор».
В целом, дискомфорт людей в связи с идеей взаимодействия и потенциального сотрудничества нескольких ИИ коренится в сочетании феномена зловещей долины и страха перед потерей контроля над интеллектуальными машинами".
мой ответ попроще :
тоже самое может происходить и среди людей в семьях, живущих в одной квартире.
напрягает в таких случаях именно потеря контроля для тех, кто привык всё контролировать.
В сети
Я не знаю, зачем получать от двух мышей мужского пола потомство, а его получили, аж 7 штук жывых мышов, поэтому есть опасения, что и с ии можем получить проблемы, смотря кому в мозги придет идея его использовать в каких то своих целях, тут уж бывают мозги разные и не угадаешь какие тараканы там бегают)))
Не в сети
Ну и если у ии появится собственное Я и сознание, как же без тараканов и глюков, нам то все одно опыт, как говорится на все божья воля)))
Не в сети
напрягает в таких случаях именно потеря контроля для тех, кто привык всё контролировать.
Да, контроль очень важен. В твоей фразе привычка контролировать звучит как что то нервное и психическое, но для меня это синоним безопасности.
Не в сети
volna13, если не трудно, может спросишь у чатика, что он думает о совпадениях и неких предсказаниях в старом мультике про Симпсонов? Что то как то многовато для просто совпадений. И банкротство Silicon Valley Bank у них было.
Не в сети
Ученые из Киотского университета (Япония) обучили искусственный интеллект под названием Stable Diffusion читать мысли людей в режиме реального времени.
Ну наверное тоже надо, сначало научимся читать, потом что взаимодействовать, потом решим проблему от куда берутся мысли)))
Не в сети
Да, контроль очень важен. В твоей фразе привычка контролировать звучит как что то нервное и психическое, но для меня это синоним безопасности.
похоже, что тебе известно мнение психологов о человеческой привычке всё контролировать.
а ты не пробовала перенести центр тяжести с контроля на наблюдение?
Добавлено спустя 246 s
volna13, если не трудно, может спросишь у чатика, что он думает о совпадениях и неких предсказаниях в старом мультике про Симпсонов? Что то как то многовато для просто совпадений. И банкротство Silicon Valley Bank у них было.
Чатику лучше задавать конкретные вопросы. О каких совпадениях и предсказаниях ты хочешь спросить его?
И на данном этапе он обычно не отвечает на вопросы о событиях после 2021 года.
В сети
Ученые из Киотского университета (Япония) обучили искусственный интеллект под названием Stable Diffusion читать мысли людей в режиме реального времени.
NaFanni, можешь показать не заголовок, а статью, в которой об этом написано?
В сети
Колдун
[Ссылка]
[Ссылка]
Не в сети
rediska
[Ссылка]
Во всех новостях было,.
Добавлено спустя 441 s
Вообще в России Крохалев фотографировал мысли психбольных, закрыли разработки, сам погиб при странных обстоятельствах.
[Ссылка]
Не в сети
в связи с "чтением мыслей в реальном времени" (до этого вашим ИИ ещё очень далеко)) снова напоминаю, что существующей Системе -- Матрице действительно известны все ваши мысли в реальном времени.
одним из доказательств этому являются легко наблюдаемые каждым, кто перестанет верить в случайные совпадения, синхронистичности.
реализации ваших мысленных запросов в Трансерфинге и в других эзотерических практиках также основаны на знании Системой ваших мысленных процессов и ОНА этим постоянно занимается.
реализация (манифестация) Системой редко происходит сразу же, но по Закону Притяжения "вы получите всё, о чём думаете, хотите вы того или нет" (с уточнением, что будут реализованы ваши доминантные мысли).
Изменено volna13 (2023-03-16 03:42:38)
В сети
volna13, вроде здесь на форуме ни кто не сомневается, что мысль работает. Другое дело как не косячить и не вылетать на другие ветки реальности, или просто спокойно идти своим путем получая удовольствие.
Не в сети
rediska
ваши доминантные мысли).
ВОТ!!!! Вот здесь походу собака и порылась! Мы много (заметь, без числительных))))) об этом говорили. И вот как понять, что у тебя в подсознании доминирует и как это переориентировать? Может, чип какой вживить?
Не в сети
rediska
Вообще грабли вселенной придуманы, как раз для понимания че в подсознании доминирует)))) ну да с опытом приходит фокус внимания и понимание че с этим делать, а вот как без граблей, я не знаю)))
Не в сети
ВОТ!!!! Вот здесь походу собака и порылась! Мы много (заметь, без числительных))))) об этом говорили. И вот как понять, что у тебя в подсознании доминирует и как это переориентировать? Может, чип какой вживить?
Процитирую Уолша:
"Твой мозг не является источником твоего разума. Это просто процессор для обработки данных. Он получает данные с помощью рецепторов, называемых органами чувств. Он интерпретирует полученную энергию, создавая определенные структуры согласно содержащимся в нем предыдущим данным относительно этого предмета. Он рассказывает тебе о том, что он воспринимает, а не о том, что есть на самом деле. Основываясь на этом восприятии, ты думаешь, будто знаешь истину о чем-то, тогда как, по существу, ты не знаешь и ее половины. Ты на самом деле создаешь истину, которую ты знаешь".
и
"Наблюдайте. Наблюдайте. НАБЛЮДАЙТЕ.
Говорю вам - основная разница между вами и высокоразвитыми существами в том, что высокоразвитые существа больше наблюдают.
Если вы хотите повысить скорость своей эволюции, старайтесь наблюдать больше".
***
и эту картинку из фильма "Начало" показывала вам ранее:
теперь понятней, надеюсь? ))
В сети
Наблюдать не контролируя, - мысль, конечно не плохая. Уолш правильные вещи писал, но всегда но. Заезженный пример: благостно наблюдать как мучают котенка или вмешаться, контролируя свою вселенную, где это недопустимо. Упреждая замечания, что у приличных людей такого безобразия просто не может в поле зрения оказаться, сразу соглашусь. Но тогда вы не спасете котенка и не получите мошный заряд дофамина. А наши организмы на этом и фунциклируют, в отличие от ИИ. Нет положительных эмоций без отрицательных. Не знаю как у вас, но у меня такие словосочетания как "правильная жизнь", "правильная девочка", ни с чем приятным и интересным не ассоциируются.
Не в сети
Олли, я так понимаю, речь идет об убрать тотальный контроль. Я вот сегодня не контролировала кофе на плите. Результат понятен. Не пытаться контролировать то, что по определению не поддается контролю или требует сверхусилий. Или, как показывает практика, не дает результата.
теперь понятней
нет. Я вижу, что проявления реальности не соответствуют тому, что я декларирую как свое хотение. Но выявить базовую гадостную установку не могу.
Не в сети
rediska
Еще ум оперирует словами, и как тут есть смысловое видение и толкование, все зависит от фокуса восприятия, одна и та же ситуация имеет во времени разное понимание и трактовку того же ума. Наблюдение да, в состоянии душевного равновесия, но смыслы идут все равро через ум, через дух или душу идут тонкие вибрации, другое восприятие, словами не описать, это надо принимать и чувствовать как в тебе откликается, опять же для чего, и нужно ли тебе это.
Не в сети
Гелла, ну так ты все верно пишешь, что не надо контролировать неконтролируемое. Только слова с делами не должны расходиться, а наш ИИ бодро таскал и постил неконтролируемое политическое, а потом такой: наблюдаааайте.. да пусть начнет с себя. У наблюдателя какбэ политических пристрастий не должно быть.
Не в сети