Cyberprzestępcy polują na naiwnych podszywając się pod ChatGPT
Oszuści wykorzystują popularność ChataGPT do wyłudzania danych i infekowania urządzeń – ostrzegają specjaliści.
Oszuści wykorzystują popularność ChataGPT do wyłudzania danych i infekowania urządzeń – ostrzegają specjaliści.
Prezesi palą się do AI. „Szaleństwo generatywnej sztucznej inteligencji nie wykazuje oznak osłabienia” - przyznaje analityk.
Nowe praktyki przestępców mogą mieć poważne konsekwencje dla poufności danych firm i osób.
Specjaliści zajmujący się systemami sztucznej inteligencji nie ukrywają, że ich rozwiązania są dalekie od doskonałości. Jednocześnie mają nadzieję, że konsumenci pomogą im je poprawić.
Sztuczna inteligencja może wymknąć się spod kontroli. Trzeba natychmiast zatrzymać jej rozwój i opracować standardy bezpieczeństwa - apeluje ponad 1 tys. ludzi z branży.
Pokusa ułatwienia sobie pracy dzięki AI może napytać biedy przedsiębiorcom. „Wykorzystanie ChatuGPT w biznesie jest w tym momencie pełne niewiadomych i bardzo ryzykowne” – ostrzega prawnik.
Techno-entuzjaści zacierają ręce, ciesząc się, że już niebawem sztuczna inteligencja zastąpi kreatywnych twórców. Z kolei ludzie, którzy chłodno oceniają rozwój wypadków w świecie nowych technologii ostrzegają, że wkrótce zaleje nas fala bzdur.
Nowe rozwiązanie stwarza ryzyko wycieku z firm i wykorzystania wrażliwych danych.