30 декабря 2022 0 21

Последний дайджест 2022 года!

Последний дайджест 2022 года!

Собрали все добрые поступки, которые вместе с дедушкой AFFSTAR совершили в декабре!

Одарили всех новогодними подарками!

40 подписок на курсы от Skillbox - https://vk.cc/ckgjM7
Месяц доступа к антидетект-бразуеру Dolphin - https://vk.cc/ckgjRU
Подписка на винчик и поездка в Стамбул в новогоднем GIVEAWAY - https://vk.cc/ckgk3a

Выпустили следующую часть ретроспективы про похудалки прошлого! - https://vk.cc/ckgkpx

Написали 2 статьи с лайфхаками и прогнозами!

Лайфхаки предновогоднего трафика - https://vk.cc/ckgkwX
Как изменится арбитраж в 2023 году - https://vk.cc/ckgkEQ

Открыли бурж на MyBody Plan 2.0! - https://vk.cc/ckgkKI

Провели квиз про эволюцию партнерского маркетинга! - https://vk.cc/ckgkNQ

Приняли участие в новогоднем арбитражном стриме! - https://vk.cc/ckgkQ2

Всех поздравляем с концом недели!
До встречи в следующем году! Будем продолжать радовать вас только хорошими новостями!
Оставить комментарий

30 декабря 2022 0 22

Каким был 2022г?! Итоги в цифрах.

Каким был 2022г?! Итоги в цифрах.

Друзья! В нашу жизнь совсем скоро ворвется 2023 год и мы уверены, что для каждого он будет прорывным, профитным и полным успешных кейсов и новых направлений с dr.cash!

А сегодня на карточках мы хотим подвести итоги нашего совместного с вами 2022! Это было мощно и спасибо всем за доверие и продуктивную работу, мы ценим каждого!

В новом году будет больше интересных проектов, направлений, конкурсов, обучений и конечно, это лишь малая часть, все увидите сами в 2023! Оставайтесь с нами, ведь нутра - вечно зеленая вертикаль, а зеленый-цвет хорошего заработка!

Как известно, конверсия в праздничные дни гораздо выше, аукцион остывает, а трафик и лиды дешевле!

Поэтому для наших партнеров мы готовы на праздничные дни, с 31 декабря по 9 января, исполнять желания, а именно, увеличить количество пиллсов на офферах до 10 за аппрув и сделать дополнительные бампы!

С заботой о вашем профите, dr.cash.
Оставить комментарий
30 декабря 2022 0 17

Друзья, поздравляем вас с наступающим Новым 2023 годом!

Друзья, поздравляем вас с наступающим Новым 2023 годом!

Спасибо, что были с нами в 2022 решали бизнес-задачи и запускали рекламные кампании в myTarget. Предлагаем вам не останавливаться на достигнутом и в новом году ставить новые рекорды с платформой VK Реклама, где мы объединили ключевые рекламные технологии VK.

Желаем эффективных кампаний, быстрого запуска и точного попадания в ЦА!
Оставить комментарий


29 декабря 2022 0 18

Как изменится арбитраж в 2023 году?

Как изменится арбитраж в 2023 году?

Задались тут вопросом, что же поменяется в нашей сфере в наступающем году. И на фоне этого написали статью с прогнозами на будущее!

Расскажем о трендах в арбитраже за 2022 год!
В нашей новогодней статье мы собрали ключевые изменения и нововведения, проанализировали уходящий год. Даже прошлись по трендам маркетинга и их применению в арбитражных связках.

И сделаем прогнозы на 2023 год!
Мы собрали только самое необходимое: конкретные офферы, примеры, креативы, источники и лайфхаки это тебе точно понадобится, чтобы заработать в новом году!

Хочешь знать будущее?
Тогда бегом читать нашу крайнюю статью в этом году!
Оставить комментарий

29 декабря 2022 0 15

Как оцифровать наружную рекламу и улучшить показатели...

Как оцифровать наружную рекламу и улучшить показатели кампании в 2 раза?

Перед брендом сухих строительных смесей Vetonit стояла задача увеличить продажи в конкурентной категории в высокий сезон. Команда проекта воспользовалась DOOH-программатиком рекламным форматом myTarget, позволяющим транслировать рекламу на наружных цифровых носителях в тот момент, когда целевая аудитория находится в зоне видимости рекламной поверхности.

Как команде бренда удалось объединить плюсы наружной и digital-рекламы, чтобы добиться не только максимального охвата, но и в 2 раза увеличить количество целевых действий на сайте, читайте по ссылке: bit.ly/3WCZVne
Оставить комментарий
29 декабря 2022 0 20

Розыгрыш подписок на 40 курсов закончился!

Розыгрыш подписок на 40 курсов закончился!

Поздравляем победителей!
Воспользуйтесь этим подарком с умом и делитесь с нами, какие курсы вы выбрали!

Поздравляем с наступающим Новым годом!
Дальше лучше! Оставайтесь на нашем канале, впереди будет еще много розыгрышей и анонсов!
Оставить комментарий

29 декабря 2022 2 33

Google CALM: проблемы технологий больших языковых моделей

Поисковая система Google объявила о революционной технологии под названием CALM, которая ускоряет большие языковые модели (такие как GPT-3 и LaMDA) без снижения уровня производительности.

А спонсором блога в этом месяце выступает сервис Rookee. Когда требуется комплексное поисковое продвижение, реклама в Telegram или формирование репутации в интернете – на помощь приходят Rookee!

Большие данные – это, конечно, хорошо, но есть нюанс

Большие языковые модели (LLM) обучаются на больших объёмах данных. Обучение языковых моделей на больших объёмах данных приводит к тому, что модель приобретает новые способности, которые не всегда изначально запланированы.

Например, добавление в языковую модель дополнительных данных для обучения может неожиданно привести к тому, что она приобретет способность переводить с одного языка на другой, даже если заранее это не планировалось. Такие новые способности называются эмерджентными – возникающими неожиданно.

В научной работе «Эмерджентные способности больших языковых моделей» исследователи пишут следующее:

Хотя имеются десятки примеров эмерджентных способностей, в настоящее время существует мало убедительных объяснений того, почему такие способности возникают именно так, как они возникают.

То есть даже учёные пока не могут достаточно убедительно объяснить, по каким причинам эти способности появляются. Но уже хорошо известно, что увеличение объёма данных для обучения машины позволяет ей приобретать больше способностей.

Недостатком увеличения объёма данных для обучения является то, что для получения результата требуется больше вычислительной мощности, что делает ИИ более медленным в тот момент, когда он генерирует текст (этот момент называется «временем вывода»).

Таким образом, компромисс между тем, чтобы сделать ИИ умнее и увеличением количества данных, заключается в том, что ИИ становится медленнее в момент итоговой обработки информации.

В новой научной статье Google (Confident Adaptive Language Modeling) проблема описывается следующим образом:

Последние достижения в области больших языковых моделей (LLM) на основе трансформеров привели к значительному повышению производительности во многих задачах.

Эти достижения сопровождаются резким увеличением размера моделей, что потенциально может привести к медленному и дорогостоящему использованию во время вывода.

Confident Adaptive Language Modeling (CALM)

Исследователи из Google нашли интересное решение для ускорения работы языковых моделей при сохранении высокой производительности. Если провести аналогию, это похоже на разницу между ответом на лёгкий вопрос и решением более сложного вопроса.

На простой вопрос, например, какого цвета небо, можно ответить, не задумываясь. Трудный вопрос требует остановиться и хорошенько подумать, чтобы найти правильный ответ на него.

С вычислительной точки зрения, большие языковые модели не делают различия между трудной частью задачи по созданию текста и лёгкой. Они генерируют текст как для лёгкой, так и для трудной части, используя всю свою вычислительную мощь во время вывода.

Нынешнее решение Google называется Confident Adaptive Language Modeling (CALM). Эта новая система позволяет выделять меньше ресурсов на тривиальные части задачи по созданию текста и направлять всю мощность на более сложные части.

В документе по CALM (о котором шла речь выше) решение проблемы сформулировано следующим образом:

На практике, однако, ряд генераций, создаваемых LLM, состоит из различных уровней сложности.

В то время как некоторые расчёты действительно получают преимущество от полной мощности моделей, другие – более тривиальны и могут быть осуществлены с меньшими вычислениями.

…Хотя большие модели в целом работают лучше, для достижения одинаковой производительности, не для каждого ввода данных может потребоваться одинаковый объём вычислений (например, в зависимости от того, лёгкий или трудный это вопрос).

Что такое Google CALM и работает ли оно?

CALM (я бы перевёл, как «Уверенное адаптивное языковое моделирование») работает, динамически распределяя ресурсы, в зависимости от сложности отдельной части задачи, используя алгоритм для предсказания того, нужны ли для чего-то полные или частичные ресурсы.

В научной статье, о которой речь шла выше, сообщается, что исследователи протестировали новую систему для различных задач обработки естественного языка (резюмирование текста, машинный перевод и ответы на вопросы) и обнаружили, что смогли ускорить вывод примерно в три раза (на 300%).

Следующая иллюстрация показывает, насколько хорошо работает система CALM (я изменил цвета картинки, так что не пугайтесь, когда увидите оригинал):

Несколько участков, выделенных тёмно-зелёным цветом, указывают на то, что на данном отрезке задания машина использовала всю свою мощность. Фиолетовые участки – это отрезки, где машина использовала менее половины мощности.

Вот что пишут исследователи по поводу данной иллюстрации:

CALM ускоряет генерацию за счёт раннего выхода, когда это возможно, и выборочного использования полной мощности декодера только для нескольких лексем, продемонстрированного здесь на примере CNN/DM с мерой уверенности на основе softmax. Y (1) early и Y (2) early используют разные пороги уверенности для раннего выхода.

Ниже (sic) текста мы сообщаем об измеренной текстовой и рисковой согласованности каждого из двух выходов, а также о повышении эффективности.

Цвета показывают количество слоёв декодирования, используемых для каждой лексемы – фиолетовые оттенки обозначают менее половины всех слоёв.

Только несколько отобранных токенов используют полную мощность модели (выделены тёмно-зелёным цветом), в то время как для большинства токенов модель завершается после одного или нескольких слоёв декодирования (выделены фиолетовым цветом).

В заключение исследователи отметили, что внедрение CALM требует лишь минимальных модификаций для адаптации большой языковой модели, чтобы она стала быстрее.

Это исследование важно, поскольку оно открывает путь к созданию более сложных моделей ИИ, которые обучаются на значительно больших наборах данных, без снижения скорости, при сохранении высокого уровня производительности.

Тем не менее, возможно, что этот метод также может принести пользу большим языковым моделям, которые обучаются на меньшем количестве данных.

Например, модели InstructGPT, родственником которых является ChatGPT, обучаются примерно на 1.3 миллиардах параметров, но всё равно способны превзойти модели, которые обучаются на значительно большем количестве параметров.

Информация об этой научной работе была опубликована в блоге Google AI 16 декабря 2022 года. Сама исследовательская работа датирована 25 октября 2022 года. Интересно, войдёт ли эта технология в большие языковые модели ближайшего будущего?

Сообщение Google CALM: проблемы технологий больших языковых моделей появились сначала на Блог SEO-аспиранта.

seoonly.ru

сложна) очень сложна

29 декабря 2022, 22:24 0
Аспирант

В ответ на seoonly.ru.

Надо разбираться. =)

30 декабря 2022, 00:51 0
Оставить комментарий

29 декабря 2022 0 20

Новогодний арбитражный стрим стартовал!

Новогодний арбитражный стрим стартовал!

Не забыли?
Уже начался стримчик, где будем подводить итоги 2022 года вместе с нашими партнерами!

Сегодня в 15:30 жди наш доклад!

Залетай на стрим!
Там уже рассказывают много крутой инфы: полезные доклады, реальные кейсы по заливу, денежные розыгрыши и море позитива ждем каждого!

Уже сейчас на Youtube-канал прямо тут https://vk.cc/cjX0Q0

До встречи в чате!
Оставить комментарий

29 декабря 2022 0 17

Партнерский маркетинг

Партнерский маркетинг

Последнее время меня эта тема очень цепляет. Вот просто засела в голову и сидит там, спать не даёт. Сама по себе тема с партнерским маркетингом не новая (тот же арбитраж трафика), но я дошел до нее только сейчас.

Суть такая:

Делаем трафик + получаем заявки + отдаем их исполнителю = бабки

Трафик делаем везде где можно:
- Рассылки
- Реклама в вк
- Реклама в директе
- Авито
- Юла
- Яндекс услуги

всё ведем на один телефон. Даём его менеджеру. Даем менеджеру скрипты. даем менеджеру исполнителей.

Мы сами только запускаем всю эту схему, а потом чилим.

Вчера пока сидели в кафе обсуждали эту тему. Ко мне пришло в голову такая тема:

- Делаем 1 паблик скажем по заборам
- Ведем его по всем законам феншуя
- Запускаем траф по всей РФ
- Получаем заявки
- Исполнителей находим на авито
- Получаем свою комиссию

Заявки будут дешевые тк это вся рф + если подрубить пиксель вк и лить через бота, то вообще сладко должно выйти

В общем у меня начинает подгорать от того что это выглядит так просто...

А теперь сними мои розовые очки, чтобы я понял как это будет всё на самом деле)))
Оставить комментарий