← Timeline
Avatar
Shmuel Leib Melamud

Акции Alphabet резко упали после того, как недавно анонсированный поисковый бот Bard распространил ложную информацию в рекламном ролике. В моменте ценные бумаги подешевели на 9%.

В промо-материале разговорный ИИ заявил, что телескоп имени Джеймса Уэбба сделал первый в истории снимок планеты за пределами Солнечной системы. Однако на самом деле «Очень большой телескоп» Европейской южной обсерватории сфотографировал экзопланету еще в 2004 году.

Эксперты также считают, что падение стоимости акций связано с неоправдавшимися ожиданиями инвесторов от презентации в Париже. Google показала ряд новинок для своих сервисов, однако не раскрыла подробностей о чат-боте Bard.

https://forklog.com/news/ai/alphabet-poteryal-100-mlrd-kapitalizatsii-iz-za-oshibki-chat-bota-v-reklame


Я не эксперт в ИИ, но на основе того, что я вижу и знаю, рискну предположить, что невероятные ожидания от скрещивания GPT с поисковой системой обернутся блистательным провалом. Склеивание более-менее подходящих под запрос фрагментов текста выглядит прикольно в качестве игрушки, и даже может проканать там, где не требуются большие интеллектуальные усилия (например, написание диплома на тройку или сдача экзамена с баллом чуть выше проходного). Но когда его запустят для ответа на миллиарды запросов всех людей на Земле, выплывет такое количество вопиюще неверных и до безумия искажённых ответов, что это просто нельзя будет игнорировать.

Дракониха недавно спросила ChatGPT, чем кормить игуану. В абзаце очень складно написанного текста были смешаны правильные продукты с теми, которые нельзя давать животному ни в коем случае. На другой пример можете полюбоваться на скрине внизу.

👍😀7
To react or comment  View in Web Client
Comments (7)
Avatar

Принцип тот же что и в использовании поисковика или там Википедии. Это, в конце концов, инструмент, каким бы сложным и красивым он не был. Не важно что было на первой странице гугла, на избранной статье в Вики, что тебе сказал ИИ и что выдал калькулятор - ответственность не на инструменте, а на том кто, обладая свободной волей и разумом, использовал данный инструмент.

Avatar

Не совсем. В поисковике ты видишь: вот это - Википедия, а вот это - Пикабу. А нейросеть спокойно соединит Википедию с Пикабу в одном предложении так, что и не заметишь.

Avatar

О! Скоро опишу свой опыт общения с ботом. Конечно, система далека, скажем мягко от совершенства, пока не способна искать по базам журнальных научных статей и глав в книгах (но это как раз со временем видимо будет достигнуто). Однако уже сегодня она дает много очков вперед "либеральному прахфессору" из типичного муниципального колледжа а то и из штатного универа. Те тоже не брезгуют википидорами а уж на какую-нибудь NYT ссылаются как на труды основоположников ... ну скажем марксизма 🙂 Система не боится пока, что ее кенсельнут + как видно из примера способна признавать ошибки (а не только ошибаться). Ну а в остальном, если понимать что конечно перед тобой не великое достижение науки а отражение лени, глупостей и страхов разработчиков, то это снижает ожидания и делает их адекватными.

Avatar

смотри, вчера смотрел как люди пробовали бинг с чатом. выглядит, что херню он мелет с примерно той же уверенностью, но зато ссылается на источники! ещё умеет сделать несколько запросов на один вопрос и очень неплохо совместить их вместе. я думаю, что это будет очень крутой инструмент, но не убийца всего которого почему-то ждут многие

👍1
Avatar

Я уточню. Вспомни, еще недавно встречался аргумент "это вы из своего интернету нахватились". То же самое и тут. И вики, и вайнет, и гугл и gpt это инструменты для получения и обработки информации. Инструменты! Ответственность за результаты использования инструмента лежит на пользователе - индивидууме, обладающим разумом и свободной волей. Ответственность подразумевает знание правил использования инструмента и минимального осознания принципа работы. В случае с информацией - ты должен понимать откуда инструмент берет источник информации, как он ее обрабатывает, какие факторы могут создать ошибки. Пример из другой плоскости - завцеха не может возложить ответственность на штангель-циркуль за высокий процент брака в продукции. Подразумевается что технический работник умеет им правильно пользоваться, следит за периодической калибровкой, понимает принципы статистического накопления ошибки; и ответственность на нем.

Avatar

Тем не менее, инструмент может быть настолько плохим, что работа с учётом всех его недостатков окажется нецелесообразной. Проще и эффективнее будет обойтись без него. Особенно, если принимать в расчёт стоимость самого инструмента и обучения работе с ним.

Буквально вчера я был свидетелем обмена мнениями по поводу использования ИИ для выполнения части программистской работы на одном из наших проектов. И одна из мыслей, которая там была высказана, заключалась в том, что ИИ создаёт код с ошибками и уязвимостями, которые не видны с первого взгляда. Для того, чтобы их обнаружить, нужно заново продумать весь код, а потом приложить усилия, чтобы его исправить. В результате, это потребует не меньших усилий, чем написать тот же код с нуля самостоятельно.

👍1
Avatar
To react or comment  View in Web Client