Kampf dem E-Mail Spam - technisch

  • Die technischen Möglichkeiten sind schon lange da:

    asynchrone Verschlüsselung und die mehr oder minder technisch umgekehrte Variante: die digitale Unterschrift !

    Asynchrone Verschlüsselung bedient sich möglichst chaotischer Graphen ( nur 2 Dimensional ? mh k.A. ) , die nicht eineindeutig sein sollen.

    Heureka:
    Variabel definierbare Mehrwege-Handshake einer sich gegenseitig poly-umhüllender Sender-Empfänger Architektur bzw. Topologie, lol !

    Der Handshake ist zeitlich nicht definiert in meinen Gedanken.

    Netter Gedanke: Dieses Verfahren dürfte man vielleicht anders herum auf die digitale Unterschrift anwenden können.

    Nun hat man zwar ein Problem der synchronen Verschlüsselung gelöst, aber der Public-Key basiert auch auf Vertrauen, es sei denn jeder ist verpflichtet sowohl einen öffentlichen als auch einen eigenen Schlüssel zu verwenden.

    Bräuchte man also eine zentrale Vergabestelle, wie das z.B. beim https der Fall ist ? Das erinnert mich an das Prinzip blabla-Overflow:

    Wie wäre es mit einer Ringstruktur oder besser einer geordneten oder einer chaotischen Topologie des gegenseitigen Vertrauens. Man könnte riesige unnütz anmutende Massen an Schlüsseln und digitalen Unterschriften zustande bringen für nur eine Person, jeweils sichergestellt durch Dritte und Vierte, was möglichst maximal automatisch realisiert werden muss, und das alles damit es die Wage hällt mit dem Spamproblem!

    Die Automatik darin funktioniert besser, wenn es mehr Schlüssel gibt. Digitale Ressourcen sollten heutzutage weniger das Problem sein im Anbetracht des Spams! Man muss weise und manchmal radikal mit Vergangenem ausloten, z.B. Assembler war früher, Morgen ist Aspektorientierte Programmierung oder mutierende Prozedur-Arrays, bla ... wozu man das auch brauchen mag !

    Eine teure Zertifzierung wäre damit passé.

    Man bräuchte also ein Volksbegehren und das wäre mit Open-Source doch wenigstens lösbar oder wer hat noch so eine religiös anmutende Massenwirkung ?

    Denn man bräuchte entweder ein neues Protokoll, was besser ist, damit Inkompatiblität hergestellt werden kann, oh ja , und genug Menschen, die das andere E-Mail System nutzen !

    Im ISO / OSI Referenzmodell liegt das ganze auf den Schichten 5 6 7 ( 8 ein halb +g+ )

    Es bleibt wichtig, dass die unteren Schichten die Sicherheit der oberen gewährleisten ! Ein Layer 2 oder 3 Extranet wäre eine Alternative - aber ob das nötig ist, steht auf einem anderen Blatt. Kopplung von Adressen und Schlüssel, überhaupt: Die Kopplung von Schlüsseln und digitalen Unterschriften mit dem Optimum aus Bequemlichkeit und multiplizierter Sicherheit z.B. Netz-Adressen - das wärs !

    Es ist wie bei einer Firewall: Je stärker man eingrenzt, desto sicherer! Und Eingrenzen kann man auf allen Layern jedes Bit !


    IPv4 ist aus sicherheitstechnischer Sicht schon lange überfällig abgelöst zu werden !

    Aber ich glaube digitale Unterschriften in dem beschriebenen System reichen auch ohne dass Verschlüsselung im Spiel sein muss!

    Ein Verbot von html Mails mit externen Quellen (z.B. Bilder / Cockies) sollte unbedingt dazu gehören ! Dieses technische Problem, das mit Aufwand verbunden ist, kann man auch mit dem sozialen Netzerk einer automatischen Schlüssel- und Unterschriften Vergabe in den Griff bekommen. Das Chaos sollte nur an dem richtigen Ort sein und nicht dem Falschen !

  • Wieso kompliziert, wenn es auch einfach geht?
    Mein Mailserver fährt Greylisting + Blacklists und dahinter noch Spamassassin. Dadurch werden schon > 90% der Spammails abgelehnt und der Rest wird getaggt und dann vom Mailclient entsorgt. Ich bekomme auf meine Mailadressen (inklusiver einer CatchAll-Adresse) im Monat vielleicht 1/2 Spammail, die nicht getaggt ist und wirklich durchrutscht.
    Bei meinem Web.de-Account kommen auch nur die Spammails durch, die von Web.de-Accounts kommen, die werden scheinbar nicht gefiltert.
    Ich habe jedenfalls kein Problem mit Spam. ;)

    Dein Konzept klingt mir jedenfalls zu radikal, danke sehr. ;)

  • Passt hier nicht rein, aber extra Thema will ich nicht aufmachen für die kurze Abhandlung.

    Erhaben ist das, was durch seinen Widerstand gegen das Interesse der Sinne unmittelbar gefällt. Immanuel Kant

    Wenn Sinn dem Input entspricht und Verarbeitung dem entspricht, was gefällt, dann wäre ein Algorithmus erhaben, wenn er sich durchsetzt, trotz negativer Auswirkungen auf die Eingabe.

    Das würde bedeuten, dass dabei Verabeitung höher gewichtet ist, als der ursprüngliche Zweck, weil ein höherer Zweck damit erfüllt wird.

    Hey, das ist ja wie so eine Informatik-Philosophie.

    Vielleicht könnte man noch viel mehr schlaue Sprüche aus der Computer-Vorzeit in Quellcode-Metasprache übersetzen. LoL das wärs!

    Nochmal darauf bezogen: Manche Algorithmen oder Programmbibliotheken (dlls) müssen so vielfältig eingesetzt werden, dass sie so eine Art Informationstechnische Universalität besitzen. Dazu zählt z.B. die Addition oder ein unärer Operator, weitestgehend sogar eine dll für Programme mp3 Dateien abspielbar zu machen.

    Die Bedeutung dieser Universalität:
    Addition sollte ursprünglich nur addieren.
    Nun baut Addition virtuelle Welten auf, Netzwerktechnik, Raumfahrt, Architektur und und und.

    Wer jetzt meint, dass andere Rechenarten doch auch nötig sind, hat nicht verstanden worum es mir hierbei geht. Addition ist viel universaler als Multiplikation. Vielleicht hilft das auf die Sprünge für die Mathematiker. Tipp: Baukastenprinzip!

    Das Erfüllen eines höheren Zweckes muss aber nicht nur die Universalität von Dingen betreffen. Das Wort tiefer passt eigentlich besser als höher, denn zergliedern heißt doch zumindest eher in die Tiefe gehen.

  • Ha - und ich habe noch eine Idee, für das ich kein extra Thema erstellen möchte.

    In einer Sprache gibt es Wörter, die oft verwendet werden und Sätze, die oft verwendet werden.

    Komprimiert werden Daten, indem zum Beispiel wiederholende Dinge nur als Wiederholung angegeben werden, also anstelle blablabla wird 3xbla gespeichert +g+.

    Ein so genanntes Solid-Archiv fasst mehrere Dateien zusammen und kann dadurch noch mehr Wiederholungen entdecken, mehr komprimieren.

    Warum soll das eigentlich erst dann geschehen?

    Hier meine Idee:
    Mit einem Algorithmus die Häufigkeit von Wiederholungen von Daten oder Daten-Abständen oder Daten, die auf Algorithmen-Prinzipien bestehen .... oder oder: feststellen.

    Die Daten verwenden, die am Häufigsten in speziellen Dateien oder Computern generell vorhanden sind, vorhandene Prüfsummen vielleicht verwenden zur Beschleunigung der Komprimierung, und das Ganze abspeichern. Vielleicht ist so ein Verfahren sogar nützlich, wenn diese Datensammlung sogar ein Gigabyte beträgt. Mit Datenbankverfahren z.B. eine Hash-Tabelle, kann ein anderes Programm diesen Datenwust nutzen.

    Nun kann ein Komprimierungs-Programm darauf zugreifen und Dateien schneller und stärker komprimieren.

    Einmal editiert, zuletzt von trace (29. Dezember 2006 um 07:10)

  • Jetzt habe ich das Stichwort gefunden:

    Netz_des_Vertrauens
    oder
    Keysigning-Partys
    oder kurz
    KSP

    http://de.wikibooks.org/wiki/GnuPG:_Netz_des_Vertrauens

    Man müsste so etwas so extrem automatisieren, dass man fast ganz und gar nicht mehr verstehen muss, wie signieren und zertifizieren funktioniert.

    Ein Click auf einen Kontakt-Vertrauen-Button reicht nicht zur Vereinfachung. Es muss auch ohne diesen Click funktionieren. Spam-Filter arbeiten doch auch automatisch. Das kann doch nicht das Problem sein.

    Und noch ein Satz dahinter:
    Die Menschheit hat Spam noch nicht besiegt, weil sie zu blöde ist! So einfach ist das! Und es ist auch nicht anders! Nein!


    EDIT: Buddha ist gut für Informatik.

    2 Mal editiert, zuletzt von trace (11. Mai 2007 um 16:25)

  • Der Spam ist noch nicht besiegt, weil finanzielle Interessen dahinterstehen und es um Geld geht. ;)
    Ich wäre ja dafür, nicht den Spammer, sondern die beworbene Firma zu bestrafen (natürlich nur, wenn bewiesen werden kann, das die Firma den Auftrag dazu gegeben hat...).
    Wegen deiner Idee: Im Prinzip läuft das ja auf eine umgekehrte Blacklist raus, soll heißen eine Whitelist, die automatisch gefüllt wird.
    Warum nicht, nur fürchte ich, das sowas wieder sehr kommerziell wäre. Schon jetzt gibt es Blacklists, wo man zahlen muss, das man wieder runter kommt, egal ob man dort per Unfall oder sonstwie gelandet ist. Wie das dann erst mit Whitelists aussehen würde...

  • Nur weil finanzielle Interessen als Grund genannt wird, widerspricht das noch lange nicht meinen Aussagen.

    Das System müsste nur intelligent genug funktionieren. Das ist alles. Es muss eine sehr intelligent aufgebaute Netzstruktur aufweisen. Damit lässt sich auch die Frage nach den Kosten klären.

    Es wird also ein Netz des Vertrauens aufgebaut und das mit 120%iger Vollautomatik, möglichst ohne Einwirken des Users.

    Meine Idee ist so aufgebaut wie das Internet. Man bräuchte also dyn./stat. Routingtabellen, so wie sie das Internet hat. Wie du weißt funktioniert ein Mailserver sowieso wie ein Router.

    Eine Whitelist ist inform.-tech. keine besonders komplexe Struktur, ein Whitelist-Routing-System, das so aufgebaut ist wie das Internet, schon.

    Buddha ist gut für Algorithmenkunde.

    Einmal editiert, zuletzt von trace (11. Mai 2007 um 17:32)

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!