1. /
  2. Актуальное
  3. /
  4. Искусственный интеллект учит людей,...

Искусственный интеллект учит людей, как лучше лгать, и он никогда не заменит людей

6.05.2024 г. /Брайан Шилхави, редактор Health Impact News.

Прошло полтора года с тех пор, как в ноябре 2022 года было представлено публике первое ИИ-приложение большой языковой модели (LLM) с выпуском Microsoft ChatGPT, разработанного OpenAI.

Google, Илон Маск и многие другие сейчас также разработали или находятся в процессе разработки своих собственных версий этих программ ИИ, но по прошествии 18 месяцев проблемой № 1 для этих программ ИИ LLM остается тот факт, что они все еще лгут и придумывают что-то, когда им задают вопросы, на которые им слишком сложно ответить.

В мире технологий это называется «галлюцинацией», и хотя когда Microsoft представила первую версию этого класса ИИ еще в 2022 году, существовала большая надежда на то, что он вскоре предоставит точные результаты, эта точность остается призрачной, поскольку они продолжают «галлюцинировать».

Вот отчет, который был опубликован сегодня, 6 мая 2024 года:

Внедрение модели большого языка (LLM) выйдет на новый уровень в 2024 году. Как сообщает Valuates, рынок LLM оценивался в 10,5 миллиардов долларов США в 2022 году и, как ожидается, достигнет 40,8 миллиардов долларов США к 2029 году с ошеломляющими среднегодовыми темпами роста (CAGR). 21,4%.

Представьте себе машину, которая настолько владеет языком, что может писать стихи, переводить языки и увлекательно отвечать на ваши вопросы. Магистры наук делают именно это, стремительно преобразуя такие сферы, как коммуникация, образование и творческое самовыражение. Однако среди их великолепия скрывается уязвимость, шепот галлюцинаций.

Эти модели ИИ иногда могут выдумывать факты, выдумывать истории или просто ошибаться.

На первый взгляд эти галлюцинации могут показаться безобидными – капелька вымысла в стихотворении, неправильно переведенная фраза. Но последствия могут быть реальными: вводящая в заблуждение информация, предвзятые результаты и даже подорванное доверие к технологиям.

Итак, становится крайне важным задаться вопросом, как мы можем обнаружить и смягчить эти галлюцинации, гарантируя, что магистры права говорят властям правду, а не фантастические выдумки? ( Полная статья .)

Многие начинают понимать это ограничение в LLM AI и осознают, что реальных решений этой проблемы не существует, поскольку это неотъемлемое ограничение искусственного компьютерного «интеллекта».

Синоним слова «искусственный» — «фальшивый», или «ненастоящий». Вместо того, чтобы называть этот вид компьютерного языка искусственным интеллектом, нам, вероятно, было бы точнее назвать его просто FI, фальшивый интеллект.

Кайл Виггерс, пишущий для Tech Crunch , несколько дней назад сообщил о неудачах некоторых из этих недавних попыток вылечить галлюцинации LLM AI.

Почему RAG не решит проблему галлюцинаций генеративного ИИ

Галлюцинации — ложь, которую по сути говорят генерирующие модели искусственного интеллекта — являются большой проблемой для компаний, стремящихся интегрировать эту технологию в свою деятельность.

Поскольку модели не обладают настоящим интеллектом и просто предсказывают слова, изображения, речь, музыку и другие данные в соответствии с частной схемой, они иногда ошибаются. Очень сильно. В недавней статье в The Wall Street Journal источник рассказывает о случае, когда генеративный искусственный интеллект Microsoft придумал участников встреч и предположил, что телеконференции посвящены темам, которые на самом деле не обсуждались во время разговора.

Как я писал некоторое время назад, галлюцинации могут быть неразрешимой проблемой для современных архитектур моделей на основе трансформаторов. ( Полная статья .)

Девин Колдьюи, также пишущий для Tech Crunch , в прошлом месяце опубликовал прекрасную статью, в которой описывается огромная проблема галлюцинаций, присущая специалистам по искусственному интеллекту:

Отличный претендент

ИИ не знает ответа, и он не научился заботиться об этом.

Есть веская причина не доверять тому, что говорят вам сегодняшние конструкции ИИ, и это не имеет ничего общего с фундаментальной природой интеллекта или человечества, с витгенштейновскими концепциями языкового представления или даже с дезинформацией в наборе данных.

Важно лишь то, что эти системы не различают то, что правильно , и то, что выглядит правильно.

Как только вы поймете, что ИИ считает эти вещи более или менее взаимозаменяемыми, все станет гораздо понятнее.

Я не хочу препятствовать интересным и обширным дискуссиям по поводу того, что это постоянно происходит во всех средствах массовой информации и во всех формах общения. У нас есть все, от философов и лингвистов до инженеров и хакеров, барменов и пожарных, которые задаются вопросом и спорят, что такое «интеллект» и «язык» на самом деле, и обладает ли ими что-то вроде ChatGPT.

Это потрясающе! И я уже многому научился, пока одни из самых умных людей в этом пространстве наслаждаются своим моментом под солнцем, а из уст младенцев исходят новые свежие взгляды.

Но в то же время за пивом или кофе приходится многое разбирать, когда кто-то спрашивает: «А как насчет всей этой фигни с GPT, немного пугает, насколько умным становится ИИ, верно?» С чего начать — с Аристотеля, механического Turk, перцептрона или «Внимание — это все, что вам нужно»?

Во время одного из таких чатов я наткнулся на простой подход, который, как я обнаружил, помогает людям понять, почему эти системы могут быть одновременно действительно крутыми и в то же время совершенно ненадежными, при этом ничуть не умаляя их полезности в некоторых областях и удивительных разговоров, которые ведутся вокруг. их. Я подумал, что поделюсь этим на тот случай, если эта точка зрения окажется полезной при разговоре об этом с другими любопытными, скептически настроенными людьми, которые, тем не менее, не хотят слышать о векторах или матрицах.

Есть только три вещи, которые нужно понять, что приводит к естественному выводу:

  1. Эти модели создаются путем наблюдения за отношениями между словами, предложениями и т. д. в огромном наборе текстовых данных, а затем построения собственной внутренней статистической карты того, как все эти миллионы и миллионы слов и понятий связаны и коррелируют. Никто не сказал: это существительное, это глагол, это рецепт, это риторический прием; но это вещи, которые естественным образом проявляются в моделях использования.
  2. Эти модели специально не учат отвечать на вопросы, в отличие от привычных компаний-разработчиков программного обеспечения, таких как Google и Apple, которые последние десять лет называют ИИ.  По сути, это  Mad Libs с пробелами, ведущими к API: каждый вопрос либо учитывается, либо дает общий ответ. В случае больших языковых моделей вопрос представляет собой просто серию слов, как и любые другие.
  3. Эти модели обладают фундаментальным выразительным качеством «уверенности» в своих ответах. В простом примере ИИ, распознающего кошку, он будет меняться от 0, что означает полную уверенность, что это не кошка, до 100, что означает полную уверенность, что это кошка. Вы можете сказать ему «да, это кот», если его достоверность равна 85 или 90, в зависимости от того, какой показатель ответа вы предпочитаете.

Итак, учитывая то, что мы знаем о том, как работает модель, возникает решающий вопрос: в чем она  уверена ? Он не знает, что такое кошка или вопрос, а только статистические связи, обнаруженные между узлами данных в обучающем наборе. Незначительная настройка позволила бы детектору кошек быть одинаково уверенным, что на картинке изображена корова, небо или натюрморт. Модель не может быть уверена в своих собственных «знаниях», поскольку у нее нет возможности реально оценить содержание данных, на которых она обучалась.

ИИ выражает, насколько он уверен в том, что его ответ  покажется пользователю правильным .

Это верно и для детектора кошек, и для GPT-4 — разница зависит от длины и сложности вывода. ИИ не может отличить правильный ответ от неправильного — он может только предсказать,  насколько вероятно, что  ряд слов будет принят как правильный. Вот почему его следует считать наиболее всесторонне информированным в мире чушью, а не авторитетом в каком-либо вопросе. Он даже не подозревает, что врет вам чушь —  его научили давать ответ, который  статистически похож на правильный ответ , и он скажет  что угодно , чтобы улучшить это сходство.

ИИ не знает ответа ни на один вопрос, потому что не понимает вопроса. Он не знает, что такое вопросы.

Оно ничего не «знает»! Ответ следует за вопросом, потому что, экстраполируя статистический анализ, эта серия слов с наибольшей вероятностью последует за предыдущей серией слов. Неважно, относятся ли эти слова к реальным местам, людям, локациям и т. д. Важно лишь то, что они  похожи на  реальные.

По той же причине ИИ может создать картину, похожую на Моне, но не Моне — все, что имеет значение, это то, что она обладает всеми характеристиками, которые заставляют людей идентифицировать произведение искусства как его. ( Полная статья .)

«ИИ» стало новым модным словом 2023 года, когда все, что связано с компьютерным кодом, называлось «ИИ», поскольку инвесторы буквально вкладывали миллиарды долларов в эту «новую» технологию.

Но когда вы действительно исследуете это, на самом деле это совсем не ново.

Большинству людей знаком женский голос «Siri» от Apple или женский голос «Alexa» от Amazon.com, который реагирует на разговорную речь и возвращает ответ. Это «ИИ», существующий уже более десяти лет.

Что «нового» в «генеративном искусственном интеллекте», как и в новых приложениях LLM, так это то, что мощность и энергия для расчета ответов были значительно расширены, чтобы создать впечатление, будто компьютер разговаривает с вами, быстро создавая текст.

Но эти LLM на самом деле не создают ничего нового. Они берут существующие данные, которые им передают, и теперь могут быстро вычислять эти данные на такой скорости, что по сравнению с ними старые технологии, лежащие в основе таких программ, как Siri и Alexa, кажутся младенцами, которые еще не научились говорить, как взрослые.

Но он по-прежнему ограничен количеством и точностью данных, на которых он обучается. Он может «создавать» новые языковые структуры, манипулируя данными, но не может создавать сами данные.

Другой способ взглянуть на это — заметить, что то, что он делает в реальном мире, делает людей лучшими лжецами, не точно представляя основные данные.

Эта улучшенная способность лгать по-настоящему поразила меня недавно, когда я смотрел рекламу новых телефонов Google:

Здесь Google явно учит людей, как обманывать людей и лгать о реальных данных, которые телефон Google собирает с помощью «ИИ», как на фотографиях.

Ложь и обман людей продаются, а правда чаще всего нет, и когда публика смотрит подобную рекламу новейшего телефона Google, реакция, я уверен, среди большинства такова, что это действительно отличная вещь. Теперь заставили нас поверить в то, что ложь и обман людей — это нормально в большинстве ситуаций.

Перевод картинки:
Те, кто владеет данными и контролирует их, управляют жизнью
Юваль Ной Харари



Сегодня в мире больших технологий «данные» — это новая валюта, а «датаизм» — новая религия.

Если вы не читали опубликованную мной в прошлом году статью Захарии Линча, которая проницательно наблюдает, к чему все это идет, или, по крайней мере, куда этого хотят Технократы, пожалуйста, прочтите ее и займитесь самообразованием:

«Датаизм» — новая религия искусственного интеллекта и трансгуманизма: те, кто владеет данными и контролирует их, управляют жизнью

Как я упоминал в недавней статье , те, кто обучает эти модели LLM, начинают паниковать, потому что у них « заканчиваются данные ».

Это порождает еще один серьезный недостаток новых моделей искусственного интеллекта LLM: все, что они генерируют из существующих данных, — это данные, которые были кем-то созданы и каталогизированы в Интернете. это КРАЖА!

Эта технология развивается так быстро, что юридические последствия еще не полностью изучены, но в начале прошлого года я решил, что не буду использовать ИИ для создания текста или графики, потому что у меня нет желания быть вором и воровать чужие ресурсы.

Когда я пишу статью сегодня, как я делал это на протяжении десятилетий, я изо всех сил стараюсь ссылаться на первоисточник всего, что использую в своих статьях, отдавая должное там, где это необходимо.

LLM AI обычно этого не делает. У ИИ нет души и понятия о добре и зле. Он просто следует сценарию, компьютерному сценарию, запрограммированному людьми и называемому алгоритмом.


В настоящее время данные можно вводить в компьютеры только ограниченными способами: посредством текста, звука через микрофоны, а также изображений и движущихся изображений через камеру.

Одно только это ограничение гарантирует, что компьютеры или программы искусственного интеллекта никогда не заменят людей, которые могут вводить данные более чем этими тремя способами, а также включают в себя такие чувства, как запах, вкус и т. д., которые пока еще не могут быть реализованы. переведены в цифровые данные.

Но самая большая способность сбора данных, которой обладают люди, — это нефизическая или «метафизическая».

Сотни лет дарвиновской теории биологической эволюции научили большинство жителей Запада тому, что наш мозг является центром нашего сознания, тогда как древние на протяжении тысячелетий всегда считали, что наше сердце является центром нашего сознания.

Такова точка зрения библейских древних писаний, а также других. Смотреть:

Миф о мозге: ваш интеллект и мысли берут начало в вашем сердце, а не в мозгу

И в «современной науке» нет ничего, что опровергало бы это убеждение.

Как я писал в прошлом году на эту тему, во всяком случае, существуют научные данные,  подтверждающие  центральное место сердца в нашей жизни.

Эти доказательства основаны на историях людей, которым сделали трансплантацию сердца, а затем подумали и вспомнили вещи, которые человек, пожертвовавший свое сердце, пережил перед смертью, хотя получатель нового сердца никогда не знал донора.

Никто никогда не получал трансплантацию чужого мозга.

Исследование 2020 года, опубликованное  в журнале  Medical Hypotheses,  фактически решает эту проблему.

Абстрактный

Изменения личности после трансплантации сердца, о которых сообщалось на протяжении десятилетий, включают сообщения о том, что реципиенты приобретают личностные характеристики своего донора. В этой статье обсуждаются четыре категории изменений личности: (1) изменения предпочтений, (2) изменения эмоций/темперамента, (3) изменения личности и (4) воспоминания из жизни донора. Предполагается, что приобретение характеристик личности донора реципиентами после трансплантации сердца происходит посредством передачи клеточной памяти, и представлены четыре типа клеточной памяти: (1) эпигенетическая память, (2) память ДНК, (3) память РНК и (4) белковая память. Обсуждаются и другие возможности, такие как передача памяти через внутрисердечную неврологическую память и энергетическую память. Изучаются последствия для будущего трансплантации сердца, включая важность пересмотра нашего нынешнего определения смерти, изучения того, как передача воспоминаний может повлиять на интеграцию донорского сердца, определения того, могут ли воспоминания передаваться посредством трансплантации других органов, а также исследования какие типы информации можно передать при трансплантации сердца. Рекомендуется дальнейшее исследование. ( Источник .)

Смотрите также:

Перенос памяти у реципиентов трансплантатов органов

10 реципиентов органов, перенявших черты своих доноров

Отрывок:

У Клэр Сильвии странные пристрастия и мечты – Новая Англия

Пересадка сердца и легких , которую получила 47-летняя Клэр Сильвия, не только  спасла ей жизнь, но и сделала ее первым человеком в Новой Англии, подвергшимся этой процедуре. Она также убеждена, что помимо жизненно важных органов она получила некоторые вкусы своего донора, как если бы его воспоминания были заперты в его сердце и легких и, следовательно, теперь текут в ее теле.

Она рассказала репортеру, что, когда ее спросили, чем она хочет заниматься в первую очередь после операции, она ответила, что «сейчас очень хочет пива». Это было странно для Клэр, поскольку она никогда раньше не наслаждалась пивом. В последующие дни она также обнаружила, что испытывает тягу к еде, которую она никогда раньше не любила и даже не ела, например, к зеленому перцу, шоколадным батончикам «Сникерс» и, как ни странно, к куриным макнаггетсам из Макдональдса, чего она никогда не пробовала.

Ей также начали сниться странные сны. Она увидела худощавого молодого человека, которого, как ей казалось, звали Тим. В частности, когда ей снились сны, в ее голове были слова «Тим Л». Просматривая местные некрологи за дни, предшествовавшие дню ее трансплантации, она наткнулась на Тимоти Ламиранда.

Тимоти Ламиранду было 18 лет, когда он погиб в аварии на мотоцикле в тот же день, когда Клэр пересадили трансплантат. Он возвращался домой из местного ресторана «Макдональдс». Пакет Chicken McNuggets был найден в кармане его куртки, когда врачи сняли с него одежду в отчаянной попытке спасти ему жизнь.

Ей удалось разыскать семью Тима, с которой она раньше не встречалась, и они подтвердили ей, что ее тяга действительно была связана с едой, которая Тиму очень нравилась, пивом и всем остальным. С тех пор она поддерживает связь с семьей Тима. ( Полная статья .)

Вот видео, опубликованное ABC News 8 лет назад, о ребенке, который родился практически без мозга, и о том, как врачи сказали родителям сделать аборт, потому что у него не было шансов жить без мозга.

Но родители не прислушались к совету врача, и их малыш Джексон почти 6 лет прожил без мозга. Причина, по которой он смог это сделать, вопреки врачам и медицине, заключается в том, что его сознание находилось в его сердце, с которым все было в порядке, а не в мозгу.

ИИ и компьютеры, работающие на электричестве, НИКОГДА не заменят людей, питающихся кровью, перекачиваемой нашим сердцем.

Больше информации об ИИ :

75-летняя история неудач с «искусственным интеллектом» и потерянные МИЛЛИАРДЫ ДОЛЛАРОВ инвестиций в научную фантастику для реального мира

«Данные», недоступные компьютерам:

Нет, мы говорим о тайной мудрости Бога, мудрости, которая была сокрыта и которую Бог предназначил для нашей славы еще до начала времен. Никто из правителей этого века не понял этого, а если бы они это поняли, то не распяли бы Господа Славы.

Однако, как написано: «Не видел глаз, не слышало ухо, и не приходило на сердце человеку то, что Бог приготовил любящим Его»— но Бог открыл нам это Духом Своим.

но проповедуем премудрость Божию, тайную, сокровенную, которую предназначил Бог прежде веков к славе нашей,
которой никто из властей века сего не познал; ибо если бы познали, то не распяли бы Господа славы.
Но, как написано: не видел того глаз, не слышало ухо, и не приходило то на сердце человеку, что приготовил Бог любящим Его.
А нам Бог открыл это Духом Своим; ибо Дух все проницает, и глубины Божии.
Ибо кто из человеков знает, что в человеке, кроме духа человеческого, живущего в нем? Так и Божьего никто не знает, кроме Духа Божия.
Но мы приняли не духа мира сего, а Духа от Бога, дабы знать дарованное нам от Бога,

(1 Коринфянам 2:7-12)

Перевод картинки: Эта статья была написана человеком, без помощи ИИ.

Источник: https://healthimpactnews.com/2024/the-new-ai-teaches-humanity-how-to-be-better-liars-and-will-never-replace-humans/