Czy ChatGPT może łamać hasła lub szyfrować? Czy chatgpt moze lamac hasla lub szyfrowac

Czy ChatGPT może łamać hasła lub szyfrować?

Chatboty AI, takie jak ChatGPT, Google Bard i Microsoft Bing Chat OpenAI, mają jedną wspólną cechę – przetwarzanie języka naturalnego (NLP). Ten rodzaj sztucznej inteligencji pozwala na nowy sposób przetwarzania wszystkiego, co wychodzi z klawiatury komputera. Litery, cyfry i znaki specjalne tworzą hasła, na których polegamy, aby chronić naszą prywatność, zasoby i życie cyfrowe. Te same znaki są tymi, na których szkolone są duże modele językowe (LLM). Czy jest więc jakiś sposób ChatGPT może łamać hasła lub szyfrować? Przyjrzyjmy się, w jaki sposób cyberprzestępcy mogą wykorzystać chatbota AI do łamania haseł.

Czy ChatGPT można wykorzystać do hackowania? – wyjaśniono hackowanie AI

Hakowanie AI to stosunkowo nowa koncepcja. Umożliwia opracowanie nowej strategii tradycyjnych metod hakowania, takich jak wiadomości e-mail typu phishing, złośliwe oprogramowanie, dane osobowe lub kradzież tożsamości. Ta nowa strategia nosi nazwę inżynierii społecznej.

Niezbędne narzędzia AI

W żadnym wypadku nie jest to koncepcja nowa, ale tradycyjnie odnosiłaby się do ludzi manipulujących innymi ludźmi za pomocą psychologii. The nowość polega to na zastąpieniu pierwszego wystąpienia słowa „człowiek” słowem „robot”.

Narzędzie AI może udawać człowieka – pisać przekonujące e-maile zachęcające czytelnika do kliknięcia linku lub dobrowolnej odpowiedzi, podając prywatne lub osobiste dane – i robi tak wiele dużo szybciej niż ludzki haker.

Inną popularną metodą hakowania, znacznie przyspieszoną przez sztuczną inteligencję, jest hakowanie haseł metodą brute-force.

Wymuszenie hasła metodą brutalnej siły może zająć 2 sekundy lub 2 septyliony lat. Zależy to oczywiście od szybkości przetwarzania i przepustowości sprzętu hakera, ale utrzymuj to na stałym poziomie, Przechodnie pozwala oszacować, ile czasu zajmie złamanie hasła według współczesnych standardów:

(TABELA)

Możesz to przyspieszyć, odgadując najpierw najbardziej prawdopodobne hasła – i tu z pomocą przychodzi PassGAN.

PassGAN to sztuczna inteligencja w stylu GAN. GAN, czyli Generative Adversarial Network, to technologia, która może uczyć się na podstawie rozkładu znaków wycieków haseł w świecie rzeczywistym, eliminując potrzebę przeglądania wszystkich możliwych kombinacji w niefiltrowanej kolejności. Czy ChatGPT może łamać hasła? Może to być inna, mniej znana sztuczna inteligencja, o którą musisz się martwić.

Czy ChatGPT może odgadnąć hasła?

ChatGPT nie może odgadnąć haseł. Żeby było jasne, model GPT-4 jest z pewnością wystarczająco potężny, ale środki bezpieczeństwa OpenAI zapewniają, że chatbot AI nie będzie mógł zostać wykorzystany do złośliwych celów, takich jak oszustwa typu phishing i ataki typu brute-force.

Chociaż zhakowanie za pomocą prostych poleceń może nie być możliwe, dostęp do modelu GPT można uzyskać za pośrednictwem interfejsu API ChatGPT. Najlepsze praktyki nakazują, aby nie próbować skryptować GPT-4 jako aktora zagrażającego, ponieważ zostaniesz zablokowany przez pracowników OpenAI.

Czy ChatGPT może złamać szyfrowanie?

Istnieje wiele przykładów użytkowników Internetu podających ChatGPT temu testowi. Wydaje się, że czasami jest to odpowiedź. To powiedziawszy, wstępne przeszukanie tych przykładów… nie jest obiecujące.

Użytkownik Reddita, SiaNage1, pokazał, że ChatGPT nie może rozwiązać problemu prosty szyfr przesunięcianatomiast kanał YouTube „Zagadki, kody i szyfry” wyjaśnia trudności związane z chatbotami AI za pomocą Szyfr Cezara.

Ponownie, odpowiedź brzmi: po prostu czasami. Pomimo ogromnej wiedzy i mocy ChatGPT, jest on celowo ograniczany, aby zapobiec jego roli w atakach phishingowych, oprogramowaniu kradnącym informacje i innych cyberatakach.

Nie oznacza to jednak, że możesz poprzestać na tych znakach specjalnych. Jednak rynek ciemnej sieci jest pełen alternatywnej sztucznej inteligencji do walki z cyberprzestępczością. Trzymaj silne hasła i nigdy nie zapisuj ich cyfrowo! Nieautoryzowany dostęp do kont za pomocą wspólnych haseł nie wymaga narzędzia szyfrującego AI – wystarczy zgadnąć.

Podobne wpisy