Что такое схемы фарминга и почему они имеют свойство умирать?
Вы знаете как я не люблю тыкать пальцем в небо и гадать на кофейной гуще, поэтому всегда пытаюсь разобраться как можно глубже в сути тех или иных вещей, чтобы иметь возможность подстраиваться под них или искать пути обхода.
Я уже писал о принципе энтропии, теории графов, поведенческих паттернах и других вещах (
https://vk.com/smol_arbitrazh?w=wall-104081987_4766).
Поэтому идем дальше.
Все мы знаем, что Facebook использует не простой (условно статичный) антифрод, а с использованием искусственного интеллекта и математических моделей, что в свою очередь дает ему возможность обучаться, все точнее прогнозируя результат наших действий в конечном итоге и пресекая попытки основных поведенческих паттернов на ранних этапах (о которых я говорил в упомянутом посте).
Так вот, есть искусственный интеллект, в нем есть подраздел машинного обучения, а у машинного обучения есть различные виды этого самого обучения.
Сегодня речь пойдет о глубоком обучении (deep learning).
Есть такая вещь, как обучение с учителем.
Под учителем подразумевается конечный негативный или позитивный результат, который нужно спрогнозировать и\или предотвратить.
Вернемся к схемам фарма и вопросу почему одни работают, но все в конечно итоге умирают.
Дело в том, что когда ваша схема необычная и аномальная, сильно отличающаяся от среднестатистического поведения, где Facebook не может опереться на предыдущий опыт и исторические данные, чтобы классифицировать их как рисковый поведенческий паттерн.
Он дает вам работать и продолжает следить за вами, чтобы понять к какому итоговому результату приведет такого рода поведение.
ФБ будет давать вам возможность работать до тех пор, пока его математическая модель и ИИ не начнут на 100% прогнозировать конечный негативный результат.
Условно если вы при одинаковом наборе и последовательности действий 100 раз в конечном итоге кинули ФБ или закл@@чили, то по теории вероятности в 101 раз вы сделаете тоже самое.
После этого ФБ так сказать упаковывает данное поведение в паттерн и уже на ранних этапах сможет выявлять вас.
В этот момент схема и умирает.
Выхода 2:
1. Постоянно генерить аномальные схемы, у которых сильное отклонение от среднестатистических показателей и юзать ее до тех пор пока юзается. Главное не делитесь схемой ни с кем, т.к. чем больше людей юзают - тем вы быстрей тем самым обучаете ФБ.
2. Стараться попасть как можно сильнее в среднестатистический паттерн-поведения, где ФБ будет сложно вас выявить. Т.к. это как и в случае с подсетью или мобильными IP, где у ФБ риск скосить большое кол-во людей под одну гребенку. Опять же используйте в своих целях принцип энтропии, речь о котором шла в предыдущих постах.
p.s.
Суть не в том, что я вас пытаюсь научить или что-то доказать, просто в очередной раз призываю копать в глубь. Изучайте принципы и механики работы тех или иных технологий, ради интереса просматривайте патенты фейсбука, я уже писал что там много чего интересного, и т.д.
Любая система - это алгоритм, а алгоритм не обладает интеллектом, чтобы принимать решения, поэтому ему важно опираться на какие-то переменные.
Как я уже сказал в начале поста, зная переменные и принцип работы, можно подстраивать или находить пути обхода.
* Также много интересного в принципах искусственного интеллекта при распознавании изображений. Понимая как это устроено, можно пропихывать практически любые подходы, оставаясь белым и пушистым в глазах ИИ ФБ.
____________________________
Black Hat - не преступление
Арбитраж - искусство
Смысл - в свободе
Лайк, репост.