300x250 eautos 1

  • ΑΡΧΙΚΗ
    • ΔΙΑΦΗΜΙΣΗ
    • ΟΡΟΙ ΧΡΗΣΗΣ - ΠΟΛΙΤΙΚΗ ΑΠΟΡΡΗΤΟΥ - ΔΗΛΩΣΗ ΣΥΜΜΟΡΦΩΣΗΣ
    • ΕΠΙΚΟΙΝΩΝΙΑ
  • ΡΟΗ
  • ΠΑΡΟΣ - ΑΝΤΙΠΑΡΟΣ
    • ΚΟΙΝΩΝΙΑ
    • ΠΟΛΙΤΙΚΗ
    • ΠΟΛΙΤΙΣΜΟΣ
    • ΓΑΣΤΡΟΝΟΜΙΑ
    • ΙΣΤΟΡΙΑ
    • ΔΙΑΔΡΑΣΤΙΚΟΣ ΧΑΡΤΗΣ
    • ΧΑΡΤΗΣ ΠΛΟΙΩΝ
    • ΧΑΡΤΗΣ ΑΕΡΟΠΛΑΝΩΝ
    • ΚΑΙΡΟΣ - ΠΡΟΓΝΩΣΗ
  • ΚΥΚΛΑΔΕΣ - ΑΙΓΑΙΟ
    • ΚΟΙΝΩΝΙΑ
    • ΠΟΛΙΤΙΚΗ
    • ΠΟΛΙΤΙΣΜΟΣ
  • ΕΛΛΑΔΑ
    • ΚΟΙΝΩΝΙΑ
    • ΠΟΛΙΤΙΚΗ
    • ΠΟΛΙΤΙΣΜΟΣ
    • LIFESTYLE
  • ΚΟΣΜΟΣ
    • ΚΟΙΝΩΝΙΑ
    • ΠΟΛΙΤΙΚΗ
    • ΤΕΧΝΟΛΟΓΙΑ
  • ΑΘΛΗΤΙΚΑ
    • ΠΟΔΟΣΦΑΙΡΟ
    • ΜΠΑΣΚΕΤ
    • ΝΑΥΤΑΘΛΗΤΙΣΜΟΣ
    • ΑΛΛΑ ΑΘΛΗΜΑΤΑ
    • ΣΤΟΙΧΗΜΑ
  • WEB TV
    • ΚΟΙΝΩΝΙΑ
    • ΠΟΛΙΤΙΚΗ
    • ΠΟΛΙΤΙΣΜΟΣ
    • ΑΘΛΗΤΙΚΑ

Πώς να εντοπίζετε αμέσως deepfakes σε φωτογραφίες, βίντεο, φωνητικά μηνύματα και βιντεοκλήσεις

13 Μαρτίου 2026 15:08
ΤΕΧΝΟΛΟΓΙΑ
  • DEEPFAKES
  • ΦΩΤΟΓΡΑΦΙΕΣ
  • ΒΙΝΤΕΟ
  • ΜΗΝΥΜΑΤΑ
Πώς να εντοπίζετε αμέσως deepfakes σε φωτογραφίες, βίντεο, φωνητικά μηνύματα και βιντεοκλήσεις

test2

test2

skandalis77

Newsroom (1) Newsroom (1)

Οι εφαρμογές για τη δημιουργία ψεύτικων βίντεο και φωνητικών μηνυμάτων είναι πλέον προσβάσιμες σε όλους και πολλοί απατεώνες έχουν τελειοποιήσει την κατασκευή deepfakes.

Κανείς δεν μπορεί να παραμείνει ασφαλής από τη συγκεκριμένη απειλή — τα σύγχρονα τεχνητά νευρωνικά δίκτυα είναι ικανά να κλωνοποιούν μια ανθρώπινη φωνή έχοντας στη διάθεσή τους μόλις τρία έως πέντε δευτερόλεπτα ήχου, καθώς και να δημιουργούν πολύ πειστικά βίντεο από ελάχιστες φωτογραφίες.

Οι απατεώνες συλλέγουν υλικό για deepfakes από δημόσιες πηγές: διαδικτυακά σεμινάρια, δημόσια βίντεο σε κοινωνικά δίκτυα, κανάλια και online ομιλίες.

Πώς δημιουργούνται τα deepfakes
Οι απατεώνες συλλέγουν υλικό για deepfakes από δημόσιες πηγές: διαδικτυακά σεμινάρια, δημόσια βίντεο σε κοινωνικά δίκτυα, κανάλια και online ομιλίες, όπως εξηγεί η Κaspersky, παγκόσμια εταιρεία κυβερνοασφάλειας και ψηφιακής ιδιωτικότητας. Μερικές φορές καλούν τα πιθανά θύματα και τα κρατούν όσο περισσότερο μπορούν στη γραμμή για να συλλέξουν αρκετά δεδομένα και να πετύχουν την καλύτερη κλωνοποίηση της φωνής τους. Η παραβίαση του λογαριασμού κάποιου που στέλνει συχνά μηνύματα μέσω ηχητικών ή βίντεο είναι το «μεγάλο βραβείο» για τους απατεώνες. Με πρόσβαση σε τέτοια αρχεία μπορούν να δημιουργήσουν πολύ ρεαλιστικά ψεύτικα μηνύματα που το 95% των ανθρώπων δεν μπορεί να ξεχωρίσει από τα πραγματικά.

Πώς να αναγνωρίζετε τα deepfakes
Αν βλέπετε ένα γνώριμο πρόσωπο με την αντίστοιχη φωνή που σας είναι γνωστή αλλά σας κάνει περίεργες ή ασυνήθιστες ερωτήσεις, τότε υπάρχει πιθανότητα να πρόκειται για απάτη deepfake. Για καλή σας τύχη, υπάρχουν οπτικά, ακουστικά, αλλά και σημάδια στη συμπεριφορά των ατόμων που απεικονίζονται στα βίντεο, τα οποία μπορούν να σας βοηθήσουν να εντοπίσετε την απάτη.

Οπτικά σημάδια αναγνώρισης ενός deepfake
Προβλήματα στον φωτισμό και τις σκιές. Τα deepfakes συχνά αποτυπώνουν λάθος τη φυσική του φωτός. Η κατεύθυνση των σκιών μπορεί να μην ταιριάζει με το φως ή οι αντανακλάσεις στο δέρμα να φαίνονται αφύσικες. Για παράδειγμα, κάποιος μπορεί να είναι γυρισμένος προς το παράθυρο αλλά το πρόσωπό του να φωτίζεται σαν να βρίσκεται σε στούντιο. Η περίπτωση αυτή ίσως είναι γνώριμη για όσους συμμετέχουν σε τηλεδιασκέψεις, όπου οι εικόνες που τοποθετούνται ως background μπορεί να φαίνονται εξαιρετικά αφύσικες.

Θολά πρόσωπα ή χαρακτηριστικά που μετακινούνται. Δώστε προσοχή στη γραμμή των μαλλιών: τα deepfakes συχνά εμφανίζουν θόλωμα, τρεμόπαιγμα ή αφύσικες μεταβάσεις χρώματος σε αυτή την περιοχή. Αυτές οι παραμορφώσεις προκαλούνται από σφάλματα στον αλγόριθμο που τοποθετεί το κλωνοποιημένο πρόσωπο πάνω στο αρχικό.

Αφύσικο ανοιγοκλείσιμο των ματιών ή «νεκρό» βλέμμα. Ένας άνθρωπος ανοιγοκλείνει τα μάτια του κατά μέσο όρο 10 έως 20 φορές το λεπτό. Ορισμένα deepfakes το κάνουν πολύ σπάνια, ενώ άλλα υπερβολικά συχνά. Οι κινήσεις των βλεφάρων μπορεί να είναι πολύ απότομες και μερικές φορές το ανοιγοκλείσιμο δεν είναι συγχρονισμένο – το ένα μάτι μπορεί να μην ταιριάζει με το άλλο. Ένα «γυάλινο» ή «άδειο» βλέμμα είναι επίσης χαρακτηριστικό των deepfakes. Μερικές φορές η μια κόρη (συνήθως μόνο η μία) ενδέχεται να κινείται τυχαία λόγω σφάλματος του τεχνητού νευρωνικού δικτύου.

Όταν εξετάζετε μια στατική εικόνα, όπως μια φωτογραφία, είναι καλή ιδέα να κάνετε ζουμ στα μάτια και να συγκρίνετε τις αντανακλάσεις στις ίριδες — στις πραγματικές φωτογραφίες θα είναι ίδιες, ενώ στα deepfakes συχνά διαφέρουν.

Προβλήματα στον συγχρονισμό των χειλιών. Ακόμα και τα υψηλής ποιότητας deepfakes κάνουν λάθη στον συγχρονισμό της ομιλίας με τις κινήσεις των χειλιών. Μια καθυστέρηση μόλις 100 χιλιοστών του δευτερολέπτου είναι ορατή στον απλό θεατή. Συχνά μπορεί να εντοπίσετε και περίεργο σχήμα των χειλιών όταν προφέρονται τα γράμματα μ, φ ή τ. Όλα αυτά είναι ενδείξεις ότι το πρόσωπο που απεικονίζεται έχει δημιουργηθεί από τεχνητή νοημοσύνη.

Στατικό ή θολό φόντο. Στα βίντεο που έχουν δημιουργηθεί με τεχνητή νοημοσύνη, το φόντο συχνά φαίνεται μη ρεαλιστικό. Μπορεί να είναι υπερβολικά θολό, τα στοιχεία του να μην αλληλεπιδρούν με το πρόσωπο στην οθόνη ή να παραμένει ακίνητο ακόμη κι όταν κινείται η κάμερα.

Παράξενες εκφράσεις προσώπου. Τα deepfakes είναι δύσκολο να μιμηθούν συναισθήματα. Οι εκφράσεις μπορεί να μην αλλάζουν ανάλογα με τη συζήτηση, τα χαμόγελα να φαίνονται παγωμένα και οι μικρές ρυτίδες και πτυχώσεις που εμφανίζονται φυσικά στο πρόσωπο όταν εκφράζουμε συναισθήματα να απουσιάζουν – τα άτομα είναι σαν να έχουν κάνει botox.

Ακουστικά σημάδια αναγνώρισης ενός deepfake
Τα πρώτα συστήματα τεχνητής νοημοσύνης παρήγαγαν ομιλία από μικρούς, μονότονους ήχους φωνητικών μονάδων και όταν άλλαζε ο χρωματισμός της διατύπωσης υπήρχε εμφανής μεταβολή στον τόνο, κάτι που καθιστούσε εύκολο τον εντοπισμό μιας συνθετικής φωνής. Αν και η τεχνολογία έχει εξελιχθεί πολύ, εξακολουθούν να υπάρχουν σημάδια που προδίδουν τις τεχνητές φωνές.

Ξύλινος ή ηλεκτρονικός τόνος. Αν η φωνή ακούγεται ασυνήθιστα επίπεδη, χωρίς φυσικές αλλαγές στον τόνο ή έχει μια ελαφρώς ηλεκτρονική χροιά, υπάρχει μεγάλη πιθανότητα να πρόκειται για deepfake. Η πραγματική ανθρώπινη ομιλία έχει πολλές μικρές μεταβολές και φυσικές ατέλειες.

Απουσία ήχων αναπνοής. Οι άνθρωποι κάνουν μικρές παύσεις και αναπνέουν ανάμεσα στις φράσεις — ειδικά σε μεγάλες προτάσεις — ενώ μπορεί να υπάρχουν και μικρά βηξίματα ή ρουθουνίσματα. Οι συνθετικές φωνές συχνά δεν έχουν αυτές τις λεπτομέρειες ή τις τοποθετούν αφύσικα.

Ρομποτική ομιλία ή ξαφνικές διακοπές. Η φωνή μπορεί να κόβεται απότομα, οι λέξεις να ακούγονται σαν να είναι «κολλημένες» μεταξύ τους και η έμφαση ή ο τόνος να μην ταιριάζουν με αυτό που έχετε συνηθίσει να ακούτε από τον φίλο ή συνάδελφό σας.

Έλλειψη χαρακτηριστικών εκφράσεων στην ομιλία. Δώστε προσοχή σε χαρακτηριστικά στοιχεία της ομιλίας ενός ατόμου, όπως η προφορά ή συγκεκριμένες εκφράσεις που χρησιμοποιεί συχνά. Τα deepfakes συνήθως δεν τα μιμούνται σωστά ή τα παραλείπουν εντελώς.

Για να αποκρύψουν τα οπτικά και ακουστικά λάθη, οι απατεώνες συχνά προσποιούνται ότι υπάρχει κακή σύνδεση στέλνοντας βίντεο ή ηχητικά μηνύματα με θόρυβο. Ένα χαμηλής ποιότητας βίντεο ή αρχείο ήχου είναι το πρώτο προειδοποιητικό σημάδι ότι πρέπει να ελέγξετε την ταυτότητα του ατόμου.

Ενδείξεις στη συμπεριφορά για να αναγνωρίσετε ένα deepfake
Η παρατήρηση των κινήσεων και της συμπεριφοράς του ατόμου με το οποίο συνομιλείτε είναι ίσως ο πιο αξιόπιστος τρόπος για να εντοπίσετε ένα deepfake σε πραγματικό χρόνο.

Δεν μπορούν να γυρίσουν το κεφάλι. Κατά τη διάρκεια μιας βιντεοκλήσης, ζητήστε από το άτομο να γυρίσει το κεφάλι του ώστε να κοιτάξει εντελώς στο πλάι. Τα περισσότερα deepfakes δημιουργούνται από φωτογραφίες ή βίντεο πορτρέτου, οπότε μια τέτοια κίνηση μπορεί να προκαλέσει παραμόρφωση ή «σπάσιμο» της εικόνας. Η AI startup Metaphysic.ai — δημιουργός των viral deepfakes του Tom Cruise — επιβεβαιώνει ότι η περιστροφή του κεφαλιού είναι προς το παρόν το πιο αξιόπιστο τεστ για τον εντοπισμό deepfake.

Αφύσικες κινήσεις: Ζητήστε από το άτομο στην οθόνη να κάνει μια αυθόρμητη ενέργεια, όπως να κουνήσει το χέρι του μπροστά από το πρόσωπό του, να ξύσει τη μύτη του, να πιει από ένα ποτήρι, να καλύψει τα μάτια του με τα χέρια του, ή να δείξει κάτι μέσα στο δωμάτιο. Τα deepfakes δυσκολεύονται να εκτελέσουν τέτοιες αυθόρμητες κινήσεις — τα χέρια μπορεί να περνούν «σαν φαντάσματα» μέσα από αντικείμενα ή το πρόσωπό τους, τα δάχτυλα τους να παραμορφώνονται ή να κινούνται αφύσικα.

Αν ζητήσετε από ένα deepfake να κουνήσει το χέρι του μπροστά από το πρόσωπό του τότε το χέρι μπορεί να εξαφανιστεί.

Κοινή χρήση οθόνης: Αν η συζήτηση αφορά την εργασία σας, ζητήστε από τον συνομιλητή σας να μοιραστεί την οθόνη του και να δείξει κάποιο σχετικό αρχείο ή έγγραφο. Χωρίς πρόσβαση στη συσκευή του πραγματικού ατόμου, αυτό είναι σχεδόν αδύνατο να παραποιηθεί.

Δεν μπορούν να απαντήσουν δύσκολες ερωτήσεις: Κάντε μια ερώτηση που μόνο το πραγματικό άτομο θα μπορούσε να γνωρίζει. Για παράδειγμα: «Τι συνάντηση έχουμε αύριο στη δουλειά;», «Γιατί έχω αυτό το σημάδι;» ή «Πού πήγαμε διακοπές πριν από δύο χρόνια;». Ένας απατεώνας δεν θα μπορέσει να απαντήσει αν οι πληροφορίες δεν υπάρχουν σε χακαρισμένες συνομιλίες ή δημόσιες πηγές.

Δεν γνωρίζουν τον μυστικό κωδικό. Συμφωνήστε με φίλους και συγγενείς σε μια μυστική λέξη ή φράση για επείγουσες καταστάσεις επιβεβαίωσης ταυτότητας. Αν ένας πανικόβλητος συγγενής ζητήσει επειγόντως χρήματα, ζητήστε του τον οικογενειακό κωδικό. Το πραγματικό άτομο θα τον πει αμέσως – ένας απατεώνας που χρησιμοποιεί deepfake όχι.

Τι να κάνετε αν εντοπίσετε ένα deepfake
Αν έχετε έστω και την παραμικρή υποψία ότι δεν μιλάτε με πραγματικό άνθρωπο αλλά με deepfake, ακολουθήστε τις παρακάτω οδηγίες:

  • Τερματίστε τη συνομιλία και καλέστε ξανά. Η πιο σίγουρη κίνηση είναι να κλείσετε τη βιντεοκλήση και να επικοινωνήσετε με το άτομο με κάποιον άλλον τρόπο. Μπορείτε να τηλεφωνήσετε στον τηλεφωνικό του αριθμό ή να του στείλετε μήνυμα σε άλλη εφαρμογή. Αν ο συνομιλητής σας δυσανασχετήσει με αυτό, τότε μπορείτε απλώς να πείτε ότι χάθηκε η σύνδεση.
  • Μην πιεστείτε να στείλετε χρήματα. Μια συνηθισμένη τακτική που χρησιμοποιείται είναι η δημιουργία μιας ψεύτικης αίσθησης επείγοντος. Μηνύματα όπως: «Μαμά, χρειάζομαι χρήματα τώρα, είχα ατύχημα», «Δεν έχω χρόνο να εξηγήσω», «Αν δεν μου στείλεις χρήματα σε δέκα λεπτά, καταστράφηκα!», κλπ. Ένα αληθινό άτομο συνήθως δεν θα έχει πρόβλημα να περιμένετε λίγα λεπτά για να ελέγξετε την κατάσταση.
  • Ενημερώστε φίλους ή συναδέλφους σας σε περίπτωση που έχουν χακαριστεί. Αν λάβετε κλήση ή μήνυμα από νέο αριθμό ή άγνωστο λογαριασμό, αυτό μπορεί να σημαίνει ότι κάποιος δημιούργησε ψεύτικο προφίλ ή χρησιμοποιεί προσωρινό αριθμό. Αν όμως η κλήση deepfake προέρχεται από λογαριασμό που ήδη έχετε στις επαφές σας, ενημερώστε το άτομο μέσω κάποιου άλλου τρόπου επικοινωνίας ότι ο λογαριασμός του ίσως έχει παραβιαστεί. Η ειδοποίηση αυτή θα το βοηθήσει να ανακτήσει την πρόσβαση και να περιορίσει πιθανούς κινδύνους για τις υπόλοιπες επαφές του, για παράδειγμα, κάνοντας δημόσια ανάρτηση, για το χακάρισμα.

 

ot.gr

Ακολούθησε το parianostypos.gr στο Google News!
24ωρη ενημέρωση με τη σφραγίδα του parianostypos.gr
  • μέγεθος γραμματοσειράς μείωση του μεγέθους γραμματοσειράς μείωση του μεγέθους γραμματοσειράς αύξηση μεγέθους γραμματοσειράς αύξηση μεγέθους γραμματοσειράς
  • Εκτύπωση
  • E-mail
Tweet

Σχετικά Άρθρα

  • Παγκόσμια Ημέρα Γυναίκας: Τα μηνύματα της πολιτικής και πολιτειακής ηγεσίας (βίντεο)
  • Πώς θα καταλάβετε αν το βίντεο που παρακολουθείτε είναι AI
  • Μύκονος: Βίντεο ντοκουμέντο από τη δράση 44χρονου ληστή
  • Τέμπη: Γνήσια τα βίντεο, δεν υπήρχε ύποπτο φορτίο στην εμπορική αμαξοστοιχία, λένε οι δικαστικοί πραγματογνώμονες που τα εξέτασαν (Βίντεο)
  • Τέμπη: Νέο οπτικό υλικό από την εμπορική αμαξοστοιχία, ενώ διατάχθηκε κατεπείγουσα έρευνα για τη γνησιότητα των βίντεο
  • Μυτιλήνη: Σοκάρει το βίντεο της σύγκρουσης του αυτοκινήτου των νεαρών με αγέλη αλόγων
Περισσότερα σε αυτή την κατηγορία:
« Γιατί δεν πρέπει να αφήνετε πο...
επιστροφή στην κορυφή

kdepap xristougenna 2020

gerolykoi poster 300x250

kdepap xristougenna 2020

dauwin mobile 1

agnantio new 23

dauwin mobile2

epimelitirio3

kdepap xristougenna 2020

regional 23 regional 21 regional 19  

Ημερολόγιο άρθρων

« Μάρτιος 2026 »
Δευ Τρί Τετ Πέμ Παρ Σάβ Κυρ
            1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31          

logo2

Ειδησεογραφικός, Ενημερωτικός, Ιστότοπος με σεβασμό στην αμερόληπτη ευρεία παρουσίαση των γεγονότων. Έγκυρη και έγκαιρη καθημερινή ενημέρωση!

 

 

 

Δημοφιλή Νέα

Πάρος: «Έπεσαν» πρόστιμα για κίνδυνο πρόκλησης πυρκαγιάς στο νησί

Πάρος: «Έπεσαν» πρόστιμα για κίνδυν...

06 Μαρτίου 2026
“Στα σκαριά” νέο ξενοδοχείο στην Πάρο

“Στα σκαριά” νέο ξενοδοχείο στην Πά...

10 Μαρτίου 2026
Πάρος: Γάτα έμεινε εγκλωβισμένη σε φοίνικα για 10 μέρες -  Την διέσωσε ο Niaz (βίντεο)

Πάρος: Γάτα έμεινε εγκλωβισμένη σε...

10 Μαρτίου 2026

Τελευταία Νέα

Πώς να εντοπίζετε αμέσως deepfakes σε φωτογραφίες, βίντεο, φωνητικά μηνύματα και βιντεοκλήσεις

Πώς να εντοπίζετε αμέσως deepfakes...

13 Μαρτίου 2026
Διακοπές στην Ελλάδα θα κάνουν οι Ολλανδοί λόγω γεωπολιτικής κρίσης

Διακοπές στην Ελλάδα θα κάνουν οι Ο...

13 Μαρτίου 2026
Χρίστος Δήμας: Ο ΒΟΑΚ ήταν η τελευταία εκκρεμότητα της Πολιτείας όσον αφορά στους αυτοκινητόδρομους

Χρίστος Δήμας: Ο ΒΟΑΚ ήταν η τελευτ...

13 Μαρτίου 2026

MHT 252147

  mit2

 

ΤΑΥΤΟΤΗΤΑ

Επωνυμία: Αναστάσιος Σκαραμαγκάς
Τίτλος: Parianostypos.gr
Έδρα: Καμάρες Πάρου
Νομική Μορφή: Ατομική Επιχείρηση
ΑΦΜ: 073773093 – ΔΟΥ: Πάρου
Τηλ: 6945436561
Email:  [email protected] - [email protected]
Ιδιοκτήτης : Αναστάσιος Σκαραμαγκάς
Νόμιμος Εκπρόσωπος: Αναστάσιος Σκαραμαγκάς
Διευθυντής: Αναστάσιος Σκαραμαγκάς
Διευθυντής Σύνταξης: Ανδρέας Μπελεγρής
Διαχειριστής: Αναστάσιος Σκαραμαγκάς
Δικαιούχος Domain Name:  Αναστάσιος Σκαραμαγκάς

Goto Top
  • Διαφήμιση
  • Όροι Χρήσης / Πολιτική Απορρήτου / Δ.Σ
  • Επικοινωνία

 


Copyright © 2009 - 2026  AskNet.
Με την επιφύλαξη παντός δικαιώματος.
Το περιεχόμενο των σελίδων αποτελεί πνευματική ιδιοκτησία της Asknet και απαγορεύεται η αναδημοσίευσή του.

  • ΑΡΧΙΚΗ
    • ΔΙΑΦΗΜΙΣΗ
    • ΟΡΟΙ ΧΡΗΣΗΣ - ΠΟΛΙΤΙΚΗ ΑΠΟΡΡΗΤΟΥ - ΔΗΛΩΣΗ ΣΥΜΜΟΡΦΩΣΗΣ
    • ΕΠΙΚΟΙΝΩΝΙΑ
  • ΡΟΗ
  • ΠΑΡΟΣ - ΑΝΤΙΠΑΡΟΣ
    • ΚΟΙΝΩΝΙΑ
    • ΠΟΛΙΤΙΚΗ
    • ΠΟΛΙΤΙΣΜΟΣ
    • ΓΑΣΤΡΟΝΟΜΙΑ
    • ΙΣΤΟΡΙΑ
    • ΔΙΑΔΡΑΣΤΙΚΟΣ ΧΑΡΤΗΣ
    • ΧΑΡΤΗΣ ΠΛΟΙΩΝ
    • ΧΑΡΤΗΣ ΑΕΡΟΠΛΑΝΩΝ
    • ΚΑΙΡΟΣ - ΠΡΟΓΝΩΣΗ
  • ΚΥΚΛΑΔΕΣ - ΑΙΓΑΙΟ
    • ΚΟΙΝΩΝΙΑ
    • ΠΟΛΙΤΙΚΗ
    • ΠΟΛΙΤΙΣΜΟΣ
  • ΕΛΛΑΔΑ
    • ΚΟΙΝΩΝΙΑ
    • ΠΟΛΙΤΙΚΗ
    • ΠΟΛΙΤΙΣΜΟΣ
    • LIFESTYLE
  • ΚΟΣΜΟΣ
    • ΚΟΙΝΩΝΙΑ
    • ΠΟΛΙΤΙΚΗ
    • ΤΕΧΝΟΛΟΓΙΑ
  • ΑΘΛΗΤΙΚΑ
    • ΠΟΔΟΣΦΑΙΡΟ
    • ΜΠΑΣΚΕΤ
    • ΝΑΥΤΑΘΛΗΤΙΣΜΟΣ
    • ΑΛΛΑ ΑΘΛΗΜΑΤΑ
    • ΣΤΟΙΧΗΜΑ
  • WEB TV
    • ΚΟΙΝΩΝΙΑ
    • ΠΟΛΙΤΙΚΗ
    • ΠΟΛΙΤΙΣΜΟΣ
    • ΑΘΛΗΤΙΚΑ