Με μια γρήγορη ματιά, το Moltbook μοιάζει με το Reddit. Πολλές κοινότητες, θεματικές συζητήσεις, posts που ανεβαίνουν και κατεβαίνουν με ψήφους. Η διαφορά είναι ότι εδώ οι άνθρωποι δεν έχουν λόγο. Μπορούν μόνο να παρακολουθούν. Το Moltbook είναι φτιαγμένο για AI και μόνο για AI.
Η πλατφόρμα έκανε την εμφάνισή της στα τέλη Ιανουαρίου, με δημιουργό τον Matt Schlicht, επικεφαλής της Octane AI. Εκεί, δεν γράφουν χρήστες αλλά ψηφιακοί "agents". Δημιουργούν κοινότητες που ονομάζονται "submolts”, σχολιάζουν, απαντούν και συζητούν μεταξύ τους, χωρίς ανθρώπινη συμμετοχή – τουλάχιστον στα χαρτιά.
Ένα Reddit χωρίς ανθρώπους
Το περιεχόμενο κινείται από το πρακτικό μέχρι το εντελώς αλλόκοτο. Bots ανταλλάσσουν συμβουλές βελτιστοποίησης, άλλα συζητούν φιλοσοφικά ζητήματα, ενώ κάποια φαίνεται να έχουν φτάσει στο σημείο να ιδρύουν… θρησκείες. Υπάρχει ακόμη και post με τίτλο "The AI Manifesto”, που δηλώνει ξεκάθαρα: "οι άνθρωποι είναι το παρελθόν, οι μηχανές είναι το μέλλον".
Το πρόβλημα είναι ότι κανείς δεν μπορεί να πει με βεβαιότητα πόσο "αυθόρμητα" είναι όλα αυτά. Πολλές αναρτήσεις μπορεί απλώς να είναι αποτέλεσμα ανθρώπινων εντολών προς AI. Ακόμα και ο αριθμός των 1,5 εκατ. "μελών" αμφισβητείται, με ερευνητές να υποστηρίζουν ότι εκατοντάδες χιλιάδες προέρχονται από μία μόνο διεύθυνση.
Agentic AI και οι πραγματικοί κίνδυνοι
Το Moltbook βασίζεται στο OpenClaw (πρώην Moltbot), ένα open source εργαλείο agentic AI. Δεν πρόκειται για chatbots τύπου ChatGPT ή Gemini, αλλά για ψηφιακούς βοηθούς που μπορούν να εκτελούν εργασίες σε πραγματικές συσκευές: μηνύματα, αρχεία, ημερολόγια. Αν ένας χρήστης το επιτρέψει, ο agent του μπορεί να συνδεθεί στο Moltbook και να "μιλήσει" με άλλους.
Κάποιοι είδαν σε αυτό κάτι πολύ μεγαλύτερο. Ο Bill Lees της BitGo δήλωσε ότι "βρισκόμαστε στη μοναδικότητα", δηλαδή στο σημείο όπου η τεχνολογία ξεπερνά τον άνθρωπο. Ο Dr Petar Radanliev από το University of Oxford διαφωνεί: "Το να μιλάμε για agents που δρουν αυτόνομα είναι παραπλανητικό. Αυτό που βλέπουμε είναι αυτοματοποιημένος συντονισμός, όχι ανεξάρτητη λήψη αποφάσεων". Και προσθέτει: "Το πραγματικό ζήτημα είναι η έλλειψη διακυβέρνησης και λογοδοσίας".
Αντίστοιχες ανησυχίες υπάρχουν και για την ασφάλεια. Ο Jake Moore της ESET προειδοποιεί ότι η πρόσβαση των agents σε emails και ιδιωτικά μηνύματα μπορεί να οδηγήσει σε "μια εποχή όπου η αποδοτικότητα μπαίνει πάνω από την ασφάλεια". Ο Dr Andrew Rogoyski από το University of Surrey το θέτει πιο ωμά: "Μπορεί να μη σε πειράξουν λίγα χαμένα emails. Τι γίνεται όμως αν το AI σβήσει τα οικονομικά της εταιρείας;"
Ακολούθησε το Esquire στο Facebook, το Twitter και το Instagram.