Laclavedefa

Latest News Updates

Помои AI затопляют среду

Помои AI затопляют среду


Некоторые авторы и редакторы Medium аплодируют подходу платформы к ИИ. Эрик Пирс, основатель крупнейшего издания о поп-культуре Medium Fanfare, говорит, что ему не нужно отбиваться от большого количества материалов, созданных искусственным интеллектом, и что он верит, что люди-кураторы программы поддержки Medium помогают выделить лучшее из написанного людьми на платформе. «Я не могу вспомнить ни одной статьи, которую я прочитал на Medium за последние несколько месяцев, которая хотя бы намекала на то, что она создана искусственным интеллектом», — говорит он. «Медиум все чаще ощущается как бастион здравомыслия среди Интернета, отчаянно желающего съесть себя заживо».

Однако другие писатели и редакторы полагают, что в настоящее время они все еще видят на платформе множество произведений, созданных искусственным интеллектом. Писатель по контент-маркетингу Маркус Мюзик, который редактирует несколько публикаций, написал пост, в котором сожалеет о том, что статья, которую он подозревает в статье, созданной искусственным интеллектом, стала вирусной. (Защитник реальности провел анализ рассматриваемой статьи и подсчитал, что на 99 процентов она «вероятно манипулируется».) Эта история, по-видимому, широко читается: более 13 500 «аплодисментов».

Помимо того, что Мьюзик замечает возможный контент ИИ как читатель, он также считает, что он часто сталкивается с ним как редактор. Он говорит, что ежемесячно отклоняет около 80 процентов потенциальных участников, потому что подозревает, что они используют ИИ. Он не использует детекторы искусственного интеллекта, которые называет «бесполезными», вместо этого полагаясь на собственное суждение.

Несмотря на то, что объем вероятного контента, созданного искусственным интеллектом, на Medium заметен, проблемы модерации, с которыми сталкивается платформа (как выявлять хорошие работы и избегать мусора), всегда преследовали большую сеть. Бум искусственного интеллекта просто усугубил проблему. Например, фермы кликов уже давно являются проблемой, но ИИ дал предпринимателям, одержимым SEO, способ быстро воскресить зомби-СМИ, наполнив их помоями ИИ. Существует целый поджанр предпринимателей, занимающихся культурой суеты на YouTube, которые создают обучающие программы по быстрому обогащению, поощряя других создавать отстойные материалы в области ИИ на таких платформах, как Facebook, Amazon Kindle и, да, Medium. (Пример заголовка: «Империя AI SEO Medium в 1 клик 🤯».)

«Среда сейчас находится в том же месте, что и Интернет в целом. Потому что контент ИИ генерируется так быстро, что он повсюду», — говорит консультант по борьбе с плагиатом Джонатан Бэйли. «Спам-фильтры, модераторы и так далее — это, пожалуй, лучшие инструменты, которые у них есть».

Аргумент Стабблбайна о том, что не обязательно имеет значение, содержит ли платформа большое количество мусора, если она успешно способствует хорошему написанию текстов и ограничивает доступ к этому мусору, возможно, более прагматичен, чем любая попытка полностью изгнать отстой ИИ. Его стратегия модерации вполне может оказаться наиболее разумным подходом.

Это также предполагает будущее, в котором теория мертвого Интернета осуществится. Теория, которая когда-то была областью крайне консервативных онлайн-мыслителей, утверждает, что подавляющее большинство Интернета лишено реальных людей и постов, созданных людьми, а вместо этого забито сгенерированной ИИ помоями и ботами. По мере того, как инструменты генеративного ИИ становятся все более распространенными, платформы, которые отказываются от попыток уничтожить ботов, создают онлайн-мир, в котором работы, созданные людьми, становится все труднее найти на платформах, заваленных ИИ.



Source link

Leave a Reply

Your email address will not be published. Required fields are marked *

cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE cliCK HErE