Prezentare generală
Activitatea externă de manipulare a alegerilor americane din 2024 a început lent, dar s-a intensificat constant în ultimele șase luni, inițial din cauza operațiunilor rusești, iar mai recent din cauza activității iraniene. Acesta este al treilea raport electoral din partea Centrului de analiză a amenințărilor Microsoft (MTAC) și aduce actualizări referitoare la activitățile observate din partea Rusiei, Iranului și Chinei de la precedentul nostru raport din aprilie 2024, „Statele naționale se angajează în operațiuni de influență focalizate pe S.U.A. înaintea alegerilor prezidențiale din S.U.A.”
În ultimele luni, am asistat la apariția unei activități de influență semnificative din partea actorilor iranieni. Operațiunile de influență cu suport cibernetic din partea Iranului au constituit o prezență constantă în cel puțin ultimele trei cicluri electorale din S.U.A. Operațiunile Iranului s-au remarcat și s-au diferențiat de campaniile rusești prin faptul că au apărut mai târziu în perioada electorală și au recurs la atacuri cibernetice orientate mai mult spre desfășurarea alegerilor și mai puțin spre influențarea alegătorilor. Activitatea recentă sugerează că regimul iranian, împreună cu Kremlinul, ar putea fi la fel de implicat și în scrutinul din 2024.
MTAC continuă să examineze conținutul cu caracter autoritar pentru a detecta utilizarea rău intenționată a inteligenței artificiale generative. Acest demers vine în sprijinul angajamentului Microsoft față de Acordul tehnologic pentru combaterea utilizării frauduloase a inteligenței artificiale în alegerile din 2024. De la ultimul nostru raport din aprilie 2024, MTAC a publicat un raport referitor la operațiunile de influență rusești de subminare a Jocurilor Olimpice de vară de la Paris din 2024, în cadrul cărora Storm-1679 a utilizat în mod repetat inteligența artificială generativă în campaniile sale, dar cu rezultate slabe. În această ediție, MTAC identifică un actor rus și unul chinez care au utilizat inteligența artificială generativă, însă cu un impact limitat sau inexistent. În total, am observat că aproape toți actorii au încercat să integreze conținut generat de inteligența artificială în operațiuni, dar mai recent mulți dintre ei s-au întors la tehnicile care s-au dovedit a fi eficiente în trecut: manipulări digitale simple, denaturarea conținutului și utilizarea de etichete sau sigle de încredere suprapuse pe informații false.
Citiți raportul complet pentru a afla mai multe.
Urmăriți Microsoft Security