SEOFAQ Telegram, маркетинг и SEO Канал SEOFAQT в мессенджере Telegram

Все чатыЯ постоянно вижу повсюду посты, где люди делятся, как они...

 101  


Я постоянно вижу повсюду посты, где люди делятся, как они используют AI (LLM) для того или иного, — но в реальности LLM'ы не могут делать то, что им приписывают, пишет Лили Рэй.

По моему мнению, главная проблема здесь — которая была проблемой с первого дня, как эти инструменты стали общедоступны — в том, что они редко говорят, когда чего-то не знают или не могут сделать, но почти всегда все равно выдают уверенный ответ.

Для новичка или человека, не знакомого с AI, может быть захватывающе попросить ChatGPT "поработать кардиохирургом" или "притвориться налоговым экспертом" и получить уверенный, правдоподобный ответ.

Особенно на фоне всей этой медийной шумихи вокруг AI — кажется вполне логичным, что большинство людей предполагает, что это и есть та самая революционная, меняющая жизнь технология, которую нам обещали.

Но в реальности эти ответы могут быть полностью сгаллюцинированы и полны неточной или даже опасной информации.

Юзер часто не видит разницы.

И я не говорю, что я от этого застрахована: я сама много раз с тревогой обнаруживала неточные ответы в ChatGPT, только после того, как проверяла его ответ через Google.

Я не виню широкую публику за то, что LLM'ы вводят их в заблуждение; ведь нет никакого экзамена, чтобы начать пользоваться этой технологией, которая, как мы теперь узнаем, может быть по-настоящему опасной.

Реальная вина лежит на AI-компаниях за то, что они не смогли научить пользователей, что эти инструменты могут и чего не могут (хотя это, очевидно, противоречило бы их целям экстремального роста).

Но теперь, когда джинн выпущен из бутылки, очень тревожно думать, сколько некорректной информации циркулирует в интернете и в обществе, и сколько людей совершают ошибки — от безобидного неверного поворота на дороге до покупки не того лекарства.

Они никогда этого не сделают, но было бы здорово, если бы эти AI-компании предприняли более серьезные шаги, чтобы:

— обучать пользователей, как лучше использовать (или не использовать) эти инструменты;

— помечать, когда определенные темы опасны;

— улучшить способность инструментов говорить, когда они не уверены в своем ответе (или ввести какой-то индикатор уверенности??).

А еще можно, хз, принять законы, которые бы это регулировали.

¯\_(ツ)_/¯

@MikeBlazerX

Инсайты для узкого круга — в @MikeBlazerPRO

Ссылки из поста:
https://www.linkedin.com/feed/update/urn:li:activi...
https://t.me/MikeBlazerX
https://t.me/tribute/app?startapp=sE4X

Источник новости https://t.me/mikeblazerx/5889...