Cybercrime : Πρόσεχε τι λες στο ChatGTP…
Γράφει η Πέννυ Τζανετοπούλου
Όσο χρήσιμα και δελεαστικά κι αν φαίνονται τα εργαλεία της τεχνητής νοημοσύνης, οι πιθανότητες να χρησιμοποιηθούν ως μέσα για απάτες και συλλογή ευαίσθητων δεδομένων ολοένα και αυξάνονται.
Μεγαλώνουν οι ανησυχίες σχετικά με τις αυξημένες ικανότητες των chatbots που έχουν δοκιμαστεί σε μεγάλα γλωσσικά μοντέλα, όπως το GTP-4 του OpenAl, το Bard της Google και το Bing της Microsoft. Οι ειδικοί προειδοποιούν το κοινό για τους κινδύνους που ενέχουν τα συγκεκριμένα λογισμικά, με πιο σημαντικούς την παραπληροφόρηση, καθώς και τον υπαρξιακό κίνδυνο στον οποίο μπορεί να υποβάλει την ανθρωπότητα η διαρκώς αυξανόμενη ανάπτυξή τους. Σαν να μην έφταναν αυτά, η πρόσφατη απαγόρευση του ChatBot στην Ιταλία για ζητήματα ιδιωτικότητας, άνοιξε και ένα τρίτο πεδίο ανησυχίας.
Οι ρυθμιστικές αρχές δεδομένων της Ιταλίας μοιράστηκαν τις ανησυχίες τους σχετικά με το μοντέλο που χρησιμοποιήθηκε από την εταιρία που κατέχει το ChatGTP, την OpenAl, και ανακοίνωσε ότι θα προχωρήσει σε περαιτέρω έρευνα για να διαπιστώσει εάν η εταιρεία έχει παραβεί τους ευρωπαϊκούς νόμους ιδιωτικότητας.
Τα chatbots μπορεί να είναι χρήσιμα για ζητήματα που αφορούν την δουλειά ή την καθημερινότητα, όμως δεν μπορούμε να παραβλέψουμε το γεγονός ότι συλλέγουν τεράστιες ποσότητες προσωπικών δεδομένων. Η τεχνητή νοημοσύνη ,επίσης, ενέχει πολλαπλούς κινδύνους όσον αφορά την ασφάλεια των πολιτών, καθώς παρέχει στους επιτήδειους την δυνατότητα να διαπράττουν πιο πειστικές και αποτελεσματικές απάτες μέσω διαδικτύου.
Αποτελούν τα Chatbots μεγαλύτερη πηγή ανησυχίας όσον αφορά την ιδιωτικότητα συγκριτικά με τις μηχανές αναζήτησης;
Οι περισσότεροι άνθρωποι είναι ενήμεροι σχετικά με τους κινδύνους που εγκυμονούν οι μηχανές αναζήτησης, όπως για παράδειγμα η Google, στην πραγματικότητα όμως τα Chatbots φαίνεται να αποτελούν μεγαλύτερο κίνδυνο όσον αφορά την χρήση των προσωπικών δεδομένων. Λόγω της διαλογικής φύσης τους και της ομοιότητας που παρουσιάζουν με τον ανθρώπινο λόγο, είναι περισσότερο πιθανό να εξαπατήσουν τον χρήστη και να τον ενθαρρύνουν να αποκαλύψει παραπάνω πληροφορίες για τον ίδιο, από αυτές που θα αποκάλυπτε σε μία μηχανή αναζήτησης.
Τα Chatbot συνήθως συλλέγουν μηνύματα, γραπτά και ηχητικά, πληροφορίες για την χρησιμοποιούμενη συσκευή, καθώς και δεδομένα που μπορεί να αποκαλύπτουν την τοποθεσία του χρήστη, όπως η διεύθυνση IP.
Όπως οι μηχανές αναζήτησης, έτσι και τα συγκεκριμένα λογισμικά διαθέτουν εργαλεία που καταγράφουν την δραστηριότητα του χρήστη στα social media, η οποία μπορεί να συνδεθεί με την διεύθυνση του email του, καθώς και με τον αριθμό του κινητού του τηλεφώνου, όπως επιβεβαιώνει και ο δρ. Lucian Tipi, αναπληρωτής καθηγητής στο Πανεπιστήμιο του Birmingham.
Κι ενώ οι υποστηρικτές του Chatbot δηλώνουν ότι η συλλογή προσωπικών δεδομένων του χρήστη είναι απαραίτητη για την βελτιστοποίηση των συσκευών, μπορούν επίσης να χρησιμοποιηθούν για στοχευμένες διαφημίσεις. Στην πραγματικότητα, κάθε φορά που κάποιος ζητά βοήθεια από ένα Chatbot τεχνητής νοημοσύνης, οι αλγόριθμοι ενισχύονται με σκοπό να διαμορφώσουν το προφίλ του χρήστη.
Αυτό έχει αρχίσει ήδη να συμβαίνει. Η Microsoft ανακοίνωσε ότι σκοπεύει να εμφανίζει διαφημίσεις κατά την χρήση του Bing Chat, ενώ έχει αποκαλυφθεί και το γεγονός ότι το προσωπικό της Microsoft έχει πρόσβαση στις συζητήσεις των χρηστών με το chatbot , με την Αμερικανική Εταιρεία να έχει ήδη αναβαθμίσει την πολιτική προστασίας της, προκειμένου να ανταποκριθεί στην συγκεκριμένη εξέλιξη.
Πώς μπορούμε λοιπόν να χρησιμοποιήσουμε το Chatbot ιδιωτικά και με ασφάλεια;
Δεδομένου ότι η τεχνολογία των Chatbots είναι ακόμα σε πρώιμο στάδιο, η απόλυτη ασφάλεια κατά την χρήση της είναι δύσκολο να καταστεί δυνατή. Ωστόσο, υπάρχουν ορισμένοι τρόποι με τους οποίους μπορούμε να περιορίσουμε τους κινδύνους κακόβουλης χρήσης των προσωπικών μας δεδομένων, με την χρήση, για παράδειγμα, σύνδεσης VPN, η οποία εξασφαλίζει απόκρυψη τοποθεσίας, διεύθυνσης IP, και διαδικτυακής δραστηριότητας εν γένει.
Και πάλι όμως, πολλοί είναι οι επιφυλακτικοί σχετικά με την ασφάλεια του Chatbot, εστιάζοντας στην ίδια του την φύση. Υποστηρίζουν ότι ακόμα και με την χρήση ενός VPN, το Chatbot και πάλι με την πάροδο του χρόνου θα συλλέγει πληροφορίες για τον χρήστη, αρκετές για να τον ταυτοποιήσει ή ακόμα και να τον εντοπίσει.
Στον αντίλογο, οι υποστηρικτές αυτής της καινοτόμας τεχνολογίας, όπως η Microsoft και η OpenAI, τονίζουν ότι οι υπηρεσίες τους αναφορικά με το Chatbot, είναι ιδιαίτερα προσεκτικές όσον αφορά την διαχείριση των προσωπικών δεδομένων των χρηστών, ενώ χρησιμοποιούν εξειδικευμένα εργαλεία που εγγυώνται την αναχαίτιση μη ασφαλούς και ευαίσθητου περιεχομένου.
Αν θες να βλέπεις άμεσα όλα τα κουπόνια και τις προσφορές χωρίς να χάσεις κάποιο τότε μπες στο κανάλι μου στο Telegram. https://t.me/coupondealer
Τι είναι το telegram μπορείς να μάθεις εδώ
Είναι ασφαλές να χρησιμοποιούμε το Chatbot για να μας βοηθά στην δουλειά μας;
Τα Chatbots μπορούν να αποδειχθούν ιδιαιτέρως χρήσιμα για την εργασία μας, ωστόσο οι ειδικοί τονίζουν ότι πρέπει να είμαστε ιδιαίτερα προσεκτικοί σχετικά με τις πληροφορίες που αποκαλύπτουμε.
Το ChatGTP, δεν είναι σε θέση να διαγράψει στοιχεία από το ιστορικό αναζήτησης, επομένως σε καμία περίπτωση δεν πρέπει να μοιραζόμαστε ευαίσθητες πληροφορίες στις συνομιλίες μας. Επιπλέον, οι ειδικοί προειδοποιούν ότι η χρήση των εργαλείων της δωρεάν έκδοσης του Chatbot για ζητήματα δουλειάς είναι εξαιρετικά επισφαλής, καθώς δεν εγγυώνται πλήρη ασφάλεια των προσωπικών δεδομένων.
Για χρήστες που επιθυμούν να ζητήσουν την βοήθεια του Chatbot για θέματα της εργασίας τους, η Microsoft προτείνει την χρήση του λογισμικού Copilot, μια λειτουργία βοηθού τεχνητής νοημοσύνης για εφαρμογές και υπηρεσίες του Microsoft 365, που ενσωματώνει πληροφορίες και δεδομένα από τα εργαλεία ασφαλείας τις επιχείρησης και παρέχει εξατομικευμένη καθοδήγηση.
Πώς μπορούμε να εντοπίσουμε κακόβουλο λογισμικό που έχει δημιουργηθεί μέσω τεχνητής νοημοσύνης;
Με την ολοένα αυξανόμενη χρήση των Chatbot στο διαδίκτυο και τα social media, οι πιθανότητες να προσβληθεί η συσκευή μας από κακόβουλα email και λογισμικά πληθαίνουν. To Εθνικό Κέντρο για την Κυβερνοασφάλεια του Ηνωμένου Βασιλείου, (National Cyber Security Centre- NCSC) έχει επιστήσει την προσοχή του κοινού σχετικά με τους κινδύνους που εγκυμονούν τα chatbot, τονίζοντας ότι το λογισμικό τους μπορεί να χρησιμοποιηθεί και για απειλές στον κυβερνοχώρο.
Οι ειδικοί προειδοποιούν ότι τα συγκεκριμένα λογισμικά έχουν την δυνατότητα να ενεργοποιήσουν “κακούς ηθοποιούς”, που θα κατασκευάζουν πιο αληθοφανείς απάτες phising μέσω email. Για παράδειγμα, θα είναι πολύ πιο εύκολο να συντάσσουν email σε διάφορες γλώσσες, επομένως οφθαλμοφανή λάθη που παραπέμπουν σε απάτη, όπως ορθογραφικά και συντακτικά λάθη, δεν θα γίνονται αντιληπτά από τον χρήστη.
Για αυτόν τον λόγο, γίνεται έκκληση στους πολίτες να είναι πιο προσεκτικοί από ποτέ όσον αφορά τις ιστοσελίδες που επισκέπτονται και τα αρχεία που αποθηκεύουν στις συσκεύες τους από άγνωστες πηγές. Σε κάθε περίπτωση, συνίσταται η εγκατάσταση ισχυρών λογισμικών ασφαλείας από ιούς και κακόβουλα λογισμικά.
Η γλώσσα, λοιπόν, μπορεί να μην αποτελεί πλέον ένδειξη κακόβουλου λογισμικού, όμως πρέπει να έχουμε υπόψη μας ότι το περιεχόμενο των Chatbot μπορεί να περιέχει μη τεκμηριωμένες ή παλιές πληροφορίες, γεγονός που μπορεί να αποτελεί ένδειξη μη ανθρώπινης δραστηριότητας.
Επομένως, το ChatGTP, όπως επισημαίνουν και οι ειδικοί, μπορεί να βοηθήσει τους επιτήδειους που έχουν πρόθεση να διαπράξουν κάποιο έγκλημα στον κυβερνοχώρο, ενώ υπάρχουν πολλές ανησυχίες για διαρροή προσωπικών δεδομένων από τις προσωπικές συνομιλίες των χρηστών. Επιπλέον, ηχητικά μηνύματα ή εικόνες σχεδιασμένες από λογισμικά τεχνητής νοημοσύνης, δίνουν τη δυνατότητα στους επιτήδειους να δημιουργήσουν πιο ρεαλιστικές απάτες. Για παράδειγμα, μπορεί να δημιουργήσουν ψεύτικα βίντεο στα οποία μιμούνται τραπεζικούς υπαλλήλους που ζητούν την καταχώρηση των στοιχείων της τραπεζικής κάρτας.
Παραδόξως, έχει αποδειχθεί ότι οι ίδιοι οι άνθρωποι είναι εκείνοι που μπορούν να εντοπίσουν μία κεκαλυμμένη απόπειρα απάτης μέσω λειτουργιών τεχνητής νοημοσύνης. Ως εκ τούτου, οι ειδικοί συστήνουν την διαρκή επαγρύπνηση του κοινού, προκειμένου να μειώσουν τις πιθανότητες έκθεσής τους σε απειλές στον κυβερνοχώρο.
Αν σας άρεσε το άρθρο, κάθε κοινοποίηση μετράει και είναι βοήθεια για την σελίδα και την προσπάθεια μου. Πατήστε την ανάλογη εικόνα για να μπείτε στο κανάλι μου στο telegram είτε να ακολουθήσετε την σελίδα στο Google News