Linkhero
 
 

Schad- und Spähsoftware


Posted on: August 12th, 2014 by linkhero
 

Trojaner

Wie das Trojanische Pferd in der griechischen Mythologie verbergen Computer-Trojaner ihre eigentliche Aufgabe (und Schädlichkeit!) hinter einer Verkleidung. Meist treten sie als harmlose Software auf: Bildschirmschoner, Videodatei, Zugangsprogramm. Sie werden zum Beispiel als E-Mail-Anhang verbreitet. Wer das Programm startet, setzt damit immer eine verborgene Schadfunktion ein: Meist besteht diese aus der Öffnung einer sogenannten Backdoor , einer Hintertür, die das Computersystem gegenüber dem Internet öffnet und durch die weitere Schadprogramme nachgeladen werden.
 

Virus

Computerviren befallen vorhandene Dateien auf den Computern ihrer Opfer. Die Wirtsdateien funktionieren – zumindest eine Zeit lang – weiterhin wie zuvor. Denn Viren sollen nicht entdeckt werden. Sie verbreiten sich nicht selbständig, sondern sind darauf angewiesen, dass Computernutzer infizierte Dateien weitergeben, sie per E-Mail verschicken, auf USB-Sticks kopieren oder in Tauschbörsen einstellen. Von den anderen Schad- und Spähprogrammen unterscheidet sich ein Virus allein durch die Verbreitungsmethode. Welche Schäden er anrichtet, hängt allein vom Willen seiner Schöpfer ab.
 

Rootkit

Das kleine Kompositum führt die Worte “Wurzel” und “Bausatz” zusammen: “Root” ist bei Unix-Systemen der Benutzer mit den Administratorenrechten, der auch in die Tiefen des Systems eingreifen darf. Ein “Kit” ist eine Zusammenstellung von Werkzeugen. Ein Rootkit ist folglich ein Satz von Programmen, die mit vollem Zugriff auf das System eines Computers ausgestattet sind. Das ermöglicht dem Rootkit weitgehende Manipulationen, ohne dass diese beispielsweise von Virenscannern noch wahrgenommen werden können. Entweder das Rootkit enthält Software, die beispielsweise Sicherheitsscanner deaktiviert, oder es baut eine sogenannte Shell auf, die als eine Art Mini-Betriebssystem im Betriebssystem alle verdächtigen Vorgänge vor dem Rechner verbirgt. Das Gros der im Umlauf befindlichen Rootkits wird genutzt, um Trojaner , Viren und andere zusätzliche Schadsoftware über das Internet nachzuladen. Rootkits gehören zu den am schwersten aufspürbaren Kompromittierungen eines Rechners.
 

Wurm

Computerwürmer sind in der Praxis die getunte, tiefergelegte Variante der Viren und Trojaner. Im strengen Sinn wird mit dem Begriff nur ein Programm beschrieben, das für seine eigene Verbreitung sorgt – und der Programme, die es transportiert. Würmer enthalten als Kern ein Schadprogramm , das beispielsweise durch Initiierung eines eigenen E-Mail-Programms für die Weiterverbreitung von einem befallenen Rechner aus sorgt. Ihr Hauptverbreitungsweg sind folglich die kommunikativen Wege des Webs: E-Mails, Chats, AIMs , P2P-Börsen und andere. In der Praxis werden sie oft als Vehikel für die Verbreitung verschiedener anderer Schadprogramme genutzt.
 

Drive-by

Unter einem Drive-by versteht man die Beeinflussung eines Rechners oder sogar die Infizierung des PC durch den bloßen Besuch einer verseuchten Web-Seite. Die Methode liegt seit einigen Jahren sehr im Trend: Unter Ausnutzung aktueller Sicherheitslücken in Browsern und unter Einsatz von Scripten nimmt ein auf einer Web-Seite hinterlegter Schadcode Einfluss auf einen Rechner. So werden zum Beispiel Viren verbreitet, Schnüffelprogramme installiert, Browseranfragen zu Web-Seiten umgelenkt, die dafür bezahlen und anderes. Drive-bys sind besonders perfide, weil sie vom PC-Nutzer keine Aktivität (wie das Öffnen einer E-Mail) verlangen, sondern nur Unvorsichtigkeit. Opfer sind zumeist Nutzer, die ihre Software nicht durch regelmäßige Updates aktuell halten – also potentiell so gut wie jeder.
 

Botnetz

Botnets sind Netzwerke gekidnappter Rechner – den Bots. Mit Hilfe von Trojaner-Programmen, die sie beispielsweise durch manipulierte Web-Seiten oder fingierte E-Mails auf die Rechner einschleusen, erlangen die Botnet-Betreiber Zugriff auf die fremden PC und können sie via Web steuern. Solche Botnets zu vermieten, kann ein einträgliches Geschäft sein. Die Zombiearmeen werden unter anderem genutzt, um millionenfache Spam-Mails zu versenden, durch eine Vielzahl gleichzeitiger Anfragen Web-Seiten in die Knie zu zwingen oder in großem Stile Passwörter abzugrasen. (mehr bei SPIEGEL ONLINE)
 

Fakeware, Ransomware

Das Wort setzt sich aus “Fake”, also “Fälschung”, und “Ware”, der Kurzform für Software zusammen: Es geht also um “falsche Software” . Gemeint sind Programme, die vorgeben, eine bestimmte Leistung zu erbringen, in Wahrheit aber etwas ganz anderes tun. Häufigste Form: angebliche IT-Sicherheitsprogramme oder Virenscanner. In ihrer harmlosesten Variante sind sie nutzlos, aber nervig: Sie warnen ständig vor irgendwelchen nicht existenten Viren und versuchen, den PC-Nutzer zu einem Kauf zu bewegen. Als Adware-Programme belästigen sie den Nutzer mit Werbung.

Die perfideste Form aber ist Ransomware : Sie kidnappt den Rechner regelrecht, macht ihn zur Geisel. Sie behindert oder verhindert das normale Arbeiten, lädt Viren aus dem Netz und stellt Forderungen auf eine “Reinigungsgebühr” oder Freigabegebühr, die nichts anderes ist als ein Lösegeld: Erst, wenn man zahlt, kann man mit dem Rechner wieder arbeiten. War 2006/2007 häufig, ist seitdem aber zurückgegangen.

 

Zero-Day-Exploits

Ein Zero-Day-Exploit nutzt eine Software-Sicherheitslücke bereits an dem Tag aus, an dem das Risiko überhaupt bemerkt wird. Normalerweise liefern sich Hersteller von Schutzsoftware und die Autoren von Schadprogrammen ein Kopf-an-Kopf-Rennen beim Stopfen, Abdichten und Ausnutzen bekanntgewordener Lücken.
 

Risiko Nummer eins: Nutzer

Das größte Sicherheitsrisiko in der Welt der Computer sitzt vor dem Rechner. Nicht nur mangelnde Disziplin bei nötigen Software-Updates machen den Nutzer gefährlich: Er hat auch eine große Vorliebe für kostenlose Musik aus obskuren Quellen, lustige Datei-Anhänge in E-Mails und eine große Kommunikationsfreude im ach so informellen Plauderraum des Webs. Die meisten Schäden in der IT dürften von Nutzer-Fingern auf Maustasten verursacht werden.

 

DDoS-Attacken

Sogenannte distribuierte Denial-of-Service-Attacken (DDoS) sind Angriffe, bei denen einzelne Server oder Netzwerke mit einer Flut von Anfragen anderer Rechner so lange überlastet werden, bis sie nicht mehr erreichbar sind. Üblicherweise werden für solche verteilten Attacken heutzutage sogenannte Botnetze verwendet, zusammengeschaltete Rechner, oft Tausende oder gar Zehntausende, die von einem Hacker oder einer Organisation ferngesteuert werden.
 
Website:

 
 
 

Youtube und Google+: Google schafft Klarnamenzwang ab


Posted on: August 8th, 2014 by linkhero
 

So wie Facebook wollte auch Google die Mitglieder seines sozialen Netzwerks zwingen, ihre echten Namen zu benutzen. Nach einer Lockerung der Regelung vor zwei Jahren verzichtet Google jetzt ganz auf den Klarnamenzwang und entschuldigt sich.

In einem unerwarteten Schritt hat Google für Google+-Benutzerkonten den Klarnamenzwang sowie bisherige Verifizierungsmodalitäten für Pseudonyme abgeschafft. Ab sofort sind Nutzer bei der Wahl ihrer Namensangaben im Profil völlig frei, wie das Unternehmen auf Google+ verkündet.

Überraschend ist der Schritt, weil die Debatte über Sinn und Unsinn der Erforderlichkeit des Klarnamens bei Google+ schon drei Jahre zurückliegt. Damals waren Google selbst und leidenschaftliche Nutzer seiner kurz zuvor eingeführten, alle Google-Dienste vernetzenden “soziale Ebene” voller Hoffnung.

Mittlerweile ist Google+ die Puste ausgegangen. Auch, weil aus Unternehmenssicht eine wichtige Aufgabe von Google+ abgeschlossen wurde, nämlich die Vereinheitlichung der Benutzerkonten zur besseren, effektiveren Werbevermarktung und Nutzerdatenanalyse. Dass der Konzern selbst keine großen Ambitionen mehr für Google+ hat, zeigt die Abwesenheit seiner Erwähnungen auf der jüngst abgehaltenen Google-Entwicklerkonferenz I/O. Der “Vater” des Projekts, Vic Gundrota, verließ das Unternehmen jüngst.

Anfang 2012 hatte Google zwar schon Pseudonyme erlaubt und damit seine “Gebrauchsnamenpflicht”, wie das Unternehmen es selbst nannte, etwas aufgeweicht. Doch Kritikern ging der Schritt nicht weit genug, zumal er erheblichen Einschränkungen unterlag.

Die jetzige Entscheidung zur Abschaffung des Klarnamenzwangs begründet Google mit dem Streben nach einem alle Menschen inkludierenden Ort. Das Unternehmen entschuldigt sich auch gleich noch bei allen Personen, die sich bislang durch den Zwang zur Angabe ihres vollen Namens ausgegrenzt fühlten.

Ein Schritt, um Youtube-Nutzer zu besänftigen?

Der Schritt, ausgeführt zum Höhepunkt des medialen Sommerlochs, im Urlaubsmonat Juli kurz nach Abschluss der Fußballweltmeisterschaft, wirkt schon etwas kurios. Als Reaktion auf die einstigen Proteste gegen Googles sture Haltung kann der Entschluss aufgrund der seitdem vergangenen Zeit kaum gewertet werden. Und ganz ohne Begrenzungen kommen die Namensrichtlinien auch weiterhin nicht aus: Auf der Hilfeseite, die während einer Namensänderung verlinkt wird, informiert Google darüber, dass nach einer Modifizierung bis zu drei Monate lang keine weiteren Änderungen möglich sind.

Unterm Strich lässt sich die Neuigkeit, so nebensächlich sie für viele Anwender auch klingen mag, dennoch als Strategiewechsel bezeichnen. Google scheint nicht länger um jeden Preis die namentliche Identität der Nutzer in Erfahrung bringen zu wollen. Sei es, weil für die gezielte Anzeigenauslieferung ohnehin hinreichend Datenpunkte über jeden einzelnen Google-Nutzer vorhanden sind. Oder vielleicht, weil das Unternehmen doch noch einmal versuchen möchte, Google+ einen Push zu geben – und das dieses Mal über eine Differenzierung vom Hauptwettbewerber Facebook, nicht als “Me too”-Produkt.

Vielleicht geht es aber auch nur darum, Kritiker der unpopulären Implementierung von Google+ als Kommentarmodul bei Youtube zu besänftigen: Seit November ist ein Profil bei Google plus nötig, um Youtube-Videos zu kommentieren – was unter Youtube-Nutzern einigen Ärger erregt hat. Und anders als das aktuelle Google+ ist Youtube für Google wichtig.

Vermutlich ist die Maßnahme nur der erste von mehreren Teilschritten, mit denen Google+ in den nächsten Monaten umgebaut, in den Hintergrund gerückt oder für einen Relaunch fit gemacht wird. Denn in der aktuellen Form erfüllt das Produkt für Google keine bedeutende Rolle (mehr).

 

Homepage besuchen:

www.golem.de/news/youtube-und-google-google-schafft-klarnamenzwang-ab-1407-107906.html



 
 
 

Intel meldet Gewinnsteigerung um 40 Prozent im zweiten Quartal


Posted on: Juli 25th, 2014 by linkhero
 

Intel hat seinen Nettogewinn im zweiten Quartal um 40 Prozent auf 2,8 Milliarden Dollar oder 0,55 Dollar je Aktie gesteigert. Der Umsatz legte um 8 Prozent auf 13,8 Milliarden Dollar zu. Beide Kategorien übertreffen die Erwartungen von Analysten, die einen Überschuss von 0,52 Dollar je Aktie bei Einnahmen von 13,68 Milliarden Dollar vorausgesagt hatten.

 

Als Folge legte der Kurs der Intel-Aktie im nachbörslichen Handel um 4,48 Prozent oder 1,42 Dollar auf 33,13 Dollar zu. Damit liegt er deutlich über dem 52-Wochen-Hoch von 31,80 Dollar.

Die PC Client Group steuerte zwischen April und Juni 8,7 Milliarden Dollar zum Gesamtumsatz bei, was einem Plus von 6 Prozent entspricht. Die Verkaufszahlen stiegen Intel zufolge um 9 Prozent, während der Durchschnittspreis im Jahresvergleich um 4 Prozent zurückging. Der operative Gewinn verbesserte sich sogar um 41 Prozent auf 3,7 Milliarden Dollar.

Ein ähnlich gutes Ergebnis erzielte die Data Center Group. Ihre Einnahmen erhöhten sich um 19 Prozent auf 3,51 Milliarden Dollar, während ihr operativer Gewinn um 40 Prozent auf 1,82 Milliarden Dollar zulegte. Auch der Geschäftsbereich Internet der Dinge erzielte in beiden Kategorien Zuwächse und schloss das Quartal mit einem Umsatz von 539 Millionen Dollar und einem operativen Profit von 155 Millionen Dollar ab.

Der Verlust der Mobile and Communications Group erhöhte sich jedoch um 48 Prozent auf 1,12 Milliarden Dollar. Dem stehen Einnahmen aus dem Verkauf von Smartphone- und Tablet-Prozessoren von lediglich 51 Millionen Dollar gegenüber. Im Vorjahreszeitraum lag der Umsatz noch bei 292 Millionen Dollar.

Intel-CEO Brian Krzanich ist trotzdem davon überzeugt, dass sein Unternehmen das selbst gesteckte Ziel von 40 Millionen verkauften Tablet-Prozessoren in diesem Jahr erreichen wird. Die Mobilsparte werde vom Start der neuen Atom-Generation Baytrail und dem zunehmenden Interesse an Geräten mit Googles Chrome OS profitieren.

Bei einer Telefonkonferenz mit Analysten wies Krzanich darauf hin, dass das PC-Geschäft vor allem in Entwicklungsländern weiterhin eine Herausforderung sei. Es gebe aber erste Anzeichen einer Erholung des Markts im Consumer-Segment. Der Erfolg im Enterprise-Markt, der unter anderem auf dem Support-Ende von Windows XP beruhe, werde mindestens bis zum Jahresende anhalten.

Im laufenden dritten Quartal rechnet Intel mit Einnahmen zwischen 13,9 und 14,9 Milliarden Dollar und einer Bruttomarge von 66 Prozent. Im Geschäftsjahr 2014 will es seinen Umsatz um 5 Prozent steigern und eine Marge von 63 Prozent erreichen. Im dritten Quartal 2013 betrug der Umsatz 13,5 Milliarden Dollar.

[mit Material von Larry Dignan, ZDNet.com]

 

 

» Zur Anbieter-Website:

www.zdnet.de/88198678/


 
 
 

Apple: Marktreife für das iPhone 6 verzögert sich


Posted on: Juli 24th, 2014 by linkhero
 
Um das neue iPhone von Apple sprießen die Gerüchte. Teilweise sind sie wild bis absurd, andere wiederum scheinen plausibel. Wann das Release des iPhones 6 ist, wird von Apple noch als Geheimnis gehütet. Laut Bloomberg beginnen die chinesischen Zulieferer gerade mit der Produktion des neuen iPhones. Auf den Markt könnte es am 19. September kommen, berichtet die chinesische Webseite Tencent.

Technische Zeichnungen, die im Internet aufgetaucht sind, verraten, dass das neue iPhone wohl nur sechs Millimeter dick sein wird. Außerdem soll das neue iPhone 6 mit einem NFC-Chip für bargeldloses Bezahlen ausgestattet sein.

Fotos von Gehäuseteilen, die aus Fabriken stammen sollen, legen den Verdacht nahe, dass Apple gleich zwei neue iPhone-Modelle auf den Markt bringen will: Ein etwas kleineres mit einem 4,7 Zoll großen, randlosen 16:9 Bildschirm, und ein sogenanntes Phablet mit 5,2 Zoll großem, ultrahochauflösendem Display.

Letzteres Gerät soll als iPhone Air mit besonders dünnem Gehäuse vermarktet werden, die Akku-Probleme könnten seinen Marktstart bis Anfang 2015 verzögern. Angeblich setzt Apple bei der kommenden Gerätegeneration erstmals auf Saphirglas, um den Touchbildschirm besser gegen Kratzer zu härten.

Apples Flaggschiff definiert seit 2007 den Fortschritt einer ganzen Produktklasse. Ohne Steve Jobs’ Erfindung wären Smartphones vielleicht noch immer Geräte mit Tastatur, sicherlich aber nicht so verbreitet wie heute.

Doch mittlerweile droht die Revolution ihre Gründer hinter sich zu lassen, die Innovation im Smartphone-Segment treiben aktuell andere: Samsung erkannte als erster den Trend zum großen Bildschirm, Google zeigt modulare Telefone, Microsoft neue Drahtlos-Funktionen.

Seit dem iPhone 4s, seit Steve Jobs Tod im Oktober 2011, steht Apples Technologieführerschaft infrage.

Der Konzern steht unter hohem Druck seiner Investoren, die Erwartungen der Kunden zu erfüllen: ein größerer Bildschirm, mehr Speicherplatz, robustere Geräte.

 

Link zur Homepage:

www.welt.de


 
 
 

Jede Website braucht Besucher, je mehr, desto besser. Gerade Unternehmen, die Dienstleistungen oder Güter anbieten, sind Seitenbesucher und damit potentielle Käufer lebensnotwendig. Dabei ist es wie im echten Leben. Ein Ladengeschäft in einer Lage, wo sehr wenig Leute unterwegs sind, wird einfach nur schwach wahrgenommen und hat entsprechend geringe Kundschaft. Identisch verhält es sich mit einem Web-Shop, der bei Google bei themenbezogenen Suchwörtern nicht auf der 1. Ergebnisseite auftaucht und demzufolge ebenso gering bis gar nicht wahrgenommen wird. Das erste, was einem dazu einfällt, ist, eine Optimierung für Suchmaschinen entweder selbst in Angriff zu nehmen oder sie bei einer Agentur in Auftrag geben. Dies ist aber in jetzigen Zeiten mit einem erheblichen Aufwand beziehungsweise erheblichen Kosten verbunden, zumal sich die Auswirkungen einer zuverlässigen Suchmaschinenoptimierung erst Monate nach Beginn durch bessere Serps bemerkbar machen. Es gibt allerdings heutzutage noch ein weiteres Problem. Die großen Player im Internet-Handel wie Amazon, ebay, zalando, otto, und jede Menge mehr investieren große Summen in SEO-Optimierung- und Internetmarketingmaßnahmen, wobei kleinere Shops schlicht nicht mithalten können, schlicht auf Grund der finanziellen Potenz. Wenn man bei Google Suchbegriffe aus Branchen wie KFZ, Immobilien, Reisen, Ferien oder auch Unterhaltungselektronik eingibt, erhält man auf der ersten Suchergebnisseite lediglich große bis sehr große Händler, kleinere und möglicherweise hochwertigere Webshops haben hier keinerlei Chance. Was kann man tun? Meiner Ansicht nach haben kleine Shops wesentlich bessere Möglichkeiten, wenn sie sich spezialisieren. Also nicht die komplette Produktpalette einer Branche anbieten, sondern nur einen Teilbereich an Waren in ihr Warenangebot nehmen. Beispielsweise bei Kraftfahrzeugen könnte das dann nur Komponenten aus dem Gebiet der Elektrik oder Licht sein, entsprechend sollte man sich in seiner Branche überlegen: Wo bin ich gut?  In welchem Segment habe ich sehr gute Einkaufspreise und kann mich von der Masse auch mit Unterstützung absetzen? Das kann ein erfolgversprechender Weg sein, doch dazu muss man dann auch die richtigen Suchbegriffe ausfindig machen, die wohl weniger eingegeben werden, dafür aber auch weniger umkämpft sind. Gerade die kleineren Anbieter können sich aber auf die Google-Suche allein lange nicht mehr verlassen. Es müssen andere Vertriebskanäle erschlossen werden, um Besucher und Käufer auf die eigene Homepage zu bringen. Dazu mehr in einem der nächsten Artikel.


 
 
 

Im laufenden Jahr werden in Deutschland voraussichtlich erstmals mehr als neun Millionen Tablets verkauft werden. Wie der Branchenverband Bitkom auf Basis aktueller Prognosen des European Information Technology Observatory (EITO) schätzt, steigt der Absatz auf 9,2 Millionen Stück. Das entspräche einem Plus gegenüber dem Vorjahr von 15 Prozent. Verglichen mit den 2,3 Millionen Tablets, die im Jahr 2011 verkauft wurden, wäre es sogar eine Vervierfachung.

 

Der Umsatz wächst der EITO-Prognose zufolge allerdings nur noch um rund 5 Prozent auf 2,5 Milliarden Euro. Schon 2013 hatte das Tablet-Geschäft mit einem Absatzplus von 52 Prozent auf 8 Millionen Stück und einem Umsatzanstieg um 36 Prozent auf 2,4 Milliarden Euro neue Rekordwerte erreicht. “Tablet Computer haben sich etabliert und legen auf dem erreichten hohen Niveau weiter zu”, sagte Bitkom-Präsident Dieter Kempf.

Dass das Umsatzwachstum mit dem Geräteverkauf nicht Schritt halten kann, liegt dem Branchenverband zufolge an dem sich verschärfenden Preiswettbewerb, der inzwischen auch den Tablet-Markt erreicht hat. Lag der Durchschnittspreis pro Tablet vor drei Jahren noch bei mehr als 400 Euro so werden es in diesem Jahr weniger als 275 Euro sein.

“Für die Kunden sind das gute Nachrichten. Sie haben die Wahl zwischen einer Vielzahl von Modellen in unterschiedlichen Größen, Leistungsmerkmalen und auch Preisen”, so Kempf.

Außer für Tablets interessieren sich die Deutschen auch zunehmend für Datenbrillen wie Google Glass. Laut einer vom Marktforschungsinstitut Aris im Auftrag des Bitkom durchgeführten Umfrage, kann sich fast jeder Dritte (31 Prozent) vorstellen, sogenannte Smart Glasses zu nutzen. Das entspricht 22 Millionen Bundesbürgern. 13 Prozent der 1004 Befragten ab 14 Jahren gaben sogar an, auf jeden Fall solch eine Brille nutzen zu wollen.

 

“Der Start von Google Glass in den USA hat das Interesse an smarten Brillen auch in Deutschland messbar gesteigert”, sagt Bitkom-Experte Timm Hoffmann. Insgesamt sind Smart Glasses hierzulande deutlich bekannter geworden. Fast die Hälfte aller Deutschen (48 Prozent) hat schon davon gehört, im Vorjahr war es erst rund ein Viertel (27 Prozent).

Smart Glasses können Informationen wie E-Mails oder Navigationshinweise direkt ins Sichtfeld einblenden und erlauben es, Fotos und Videos aus dem Blickwinkel des Trägers aufzunehmen. Der Umfrage zufolge interessieren sich mehr Frauen als Männer für solche Brillen. Jede dritte Frau (33 Prozent) kann sich vorstellen, eine Datenbrille zu tragen. Bei den Männern fällt der Anteil mit 29 Prozent etwas geringer aus.

Leichte Unterschiede gibt es auch in den Altersklassen. 39 Prozent der 14- bis 29-Jährigen geben an, künftig smarte Brillen nutzen zu wollen. Bei den 30- bis 49-Jährigen sind es 33 Prozent und bei den 50- bis 60-Jährigen 34 Prozent. Bei Personen über 65 Jahren ist das Interesse an der neuen Technik mit 19 Prozent deutlich geringer.

 

 

externer Link zum Artikel:

www.zdnet.de/88196190/


 
 
 

Soziales Netzwerk: Google Orkut wird begraben


Posted on: Juli 17th, 2014 by linkhero
 

Orkut schließt seine Pforten

Das soziale Netzwerk Orkut ist älter als Facebook. Doch außerhalb von Brasilien und Indien war der Dienst nie sonderlich populär. Zugunsten von Google+ zieht Google nun einen Schlussstrich.

Bereits kurz vor Facebook und lange vor Google+ gründete Google mit Orkut sein erstes eigenes soziales Netzwerk: Orkut. Benannt wurde es nach dem Entwickler Orkut Buyukkokten. Hierzulande spielte es kaum eine Rolle, war vielen sogar gänzlich unbekannt, so dass man es hierzulande durchaus als Flop bezeichnen konnte. In Indien und Brasilien aber war es überaus populär. Mit dem Start von Google+ drängte Google die Orkut-Nutzer dazu, zum neuen Netzwerk und Facebook-Rivalen zu wechseln. Der nächste Schritt auf dem Weg ins Grab erfolgte Ende 2012, als es der Stopp neuer Features für Orkut angekündigt wurde. Nun hat Google angekündigt, die Pforten des sozialen Netzwerks am 30. September 2014 zu schließen. Nach dem Ende von Quickoffice ist das schon die zweite Schließungsmeldung aus Mountain View in dieser Woche.
Als Begründung für das Aus von Orkut wird das starke Wachstum von Youtube, Blogger und Google+ angegeben. Deren Communities würden das Orkut-Wachstum in den Schatten stellen. Google will seine Kräfte auf die anderen Projekte konzentrieren, heißt es im Orkut-Blog.

 

Zwar wird Orkut am 30. September begraben, doch noch bis September 2016 sollen die Nutzer noch Zeit haben, ihre Fotoalben und Profile zu exportieren. Das funktioniert über Google Takeout auf dieser Webseite. Nach dem 30. September wird man sich jedoch nicht mehr in Orkut einloggen können und Fotoalben von dort nicht mehr nach Google+ umziehen können. Wichtig: Wer eigene (öffentliche) Postings nicht für die Ewigkeit konservieren möchte, sollte diese bis Ende September löschen. Denn anschließend werden sie archiviert. Das komplette Orkut-Profil können Sie über www.google.com/settings/datatools und “Produkte löschen” entfernen.
 
Erstmalig veröffentlicht auf:

 
 
 

Die NSA saugt mit Hilfe von Drittpartnern an Internetknoten Kommunikationsdaten ab: Das belegen neue Dokumente aus dem Snowden-Archiv, die vom dänischen Dagbladet gemeinsam mit der Snowden-Vertrauten Laura Poitras publiziert wurden. Bislang war eine solche Kooperation nur zwischen britischem GCHQ und NSA bekannt, laut den Unterlagen sollen aber Geheimdienste einer Vielzahl von Ländern aktiv Daten an den US-Militärgeheimdienst weiterleiten.

Knotenpunkte im Visier

Das Prinzip: Partnerländer saugen an bestimmten Internetknotenpunkten alle Daten ab, leiten diese an ein “Datenzentrum“ weiter, wo sie von der NSA aufgenommen und in die USA geschickt werden. So funktioniert auch die Weiterleitung von Daten des GCHQ, der transatlantische Knotenpunkte absaugt. Als britischer Dienst ist der GCHQ aber Mitglied der sogenannten “Five Eyes“, einer engen nachrichtendienstlichen Partnerschaft zwischen den englischsprachigen Ländern Großbritannien, Kanada, Australien, Neuseeland und NSA.

RAMPART-A

Dass weitaus mehr Staaten willfährig ihren Internetverkehr absaugen und an die NSA weiterleiten, ist durchaus überraschend. In den jetzt veröffentlichten Dokumenten ist die Rede von “mehreren Third Party Countries“, die an der Massenüberwachung im RAMPART-A-Programm teilnehmen.

Spekulationen zu österreichischer Rolle

Auch Österreich gilt als “Third Party“, schon im Herbst 2013 war über mögliche Infiltration des Internetknotenpunkts VIX, der von der Uni Wien betrieben wird, spekuliert worden. Gesicherte Beweise gibt es jedoch nicht, da die Partnerstaaten einer extrem hohen Geheimhaltung unterliegen. So könnte es sein, dass nicht einmal Snowden-Dokumente Aufklärung darüber liefern, weil Snowden selbst keinen Zugang zu diesen Unterlagen hatte.

Dänemark vermutlich Partner

Laura Poitras und die Journalisten des dänischen Dagbladet können daher nur “stark vermuten“, dass Dänemark an RAMPART-A teilgenommen hat. Durch seine geografische Lage wäre Dänemark jedoch prädestiniert: So fließen viele Daten aus Deutschland über Dänemark gen Norden, wo sich etwa Datenzentren von Google und Facebook befinden. In die andere Richtung quert Internetverkehr aus Norwegen, Schweden und Finnland dänisches Gebiet, sogar russische Daten könnten abgefangen werden.

Special Source Operations

Zuständig für die Kooperationen ist innerhalb der NSA das Special Source Operations-Team (SSO), dessen Logo einen Adler zeigt, der Fiberkabel umklammert. Das SSO verfügt über ein großes Budget: 91 Millionen Dollar war den USA laut geheimen Black Budget-Unterlagen das Datenabsaugen wert, 76,55 Millionen davon sollen in RAMPART-A geflossen sein. Das Ergebnis: Über drei Terabit an Daten pro Sekunde, veranschaulicht gemacht: 362 Millionen CD-Roms pro Tag.

Europäischer Basar

In Dänemark haben die Enthüllungen, die auf information.dk in englischer Sprache zugänglich sind, heftige Debatten über die Legitimität der Kooperation ausgelöst. Die NSA nutzt hier allerdings fehlende europäische Integration: Schon Snowden hatte auf das Prinzip eines “europäischen Basars“ hingewiesen, auf dem Daten von Bürgern unterschiedlicher Nationen getauscht werden.

So ist Deutschland etwa das Ausspionieren von Deutschen verboten, Dänemark das Ausspionieren von Dänen. Daher benutzt die NSA deutsche Daten über Dänen und dänische Daten über Deutsche und umgeht so etwaige No-Spy-Abkommen, die mit den Partnerstaaten getroffen wurden. Die NSA wollte zu den Berichten keinen Kommentar abgeben.

 

Von:

derstandard.at/2000002152172/


 
 
 

Heartbleed gilt als eine der gravierendsten Sicherheitslücken in der Geschichte des Internets. Einen Monat danach scheint die Gefahr größtenteils gebannt zu sein, auch wenn noch nicht alle Betroffenen reagiert haben.

Einen Monat nach Bekanntwerden der Sicherheitslücke Heartbleed hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) Entwarnung gegeben. Laut BSI haben die wichtigsten Websites inzwischen reagiert und die Sicherheitslücke geschlossen, die durch einen Fehler in der Verschlüsselungs-Software OpenSSL entstand.

So optimistisch zeigen sich allerdings nicht alle Experten: Laut Erratasec, einem Dienstleister für Internetsicherheit, sind weltweit immer noch mehr als 300.000 Webseiten unsicher. Auch nach Angaben von Netcraft haben noch nicht einmal die Hälfte der betroffenen Websites neue Zertifikate. Sie wären damit immer noch anfällig für einen Angriff, durch den ein Angreifer alles mitlesen kann, was über eine vermeintlich sichere Verbindung geschickt wird, zum Beispiel Passwörter für Onlinebanking.

Das Problem: Der Fehler in der Kryptografiesoftware OpenSSL war zwar schnell behoben, doch reicht es nicht, wenn ein Website-Betreiber nur die fehlerhafte Software austauscht. Denn über den Heartbleed-Fehler lassen sich die privaten kryptografischen Schlüssel des Servers auslesen. Die Schlüssel wiederum werden in Zertifikate integriert. Diese werden in Browsern oder E-Mail-Programmen der Anwender gespeichert, um einen verschlüsselten Zugang zu verifizieren.

Kein funktionierendes System zur Überprüfung von Zertifikaten

Administratoren betroffener Websites oder E-Mail-Anbieter müssen zunächst die fehlerhafte OpenSSL-Software austauschen, neue Schlüssel und damit neue Zertifikate erstellen. Schließlich müssen die alten Zertifikate zurückgezogen und damit für ungültig erklärt werden. Denn sonst besteht laut BSI die Gefahr, dass ein “Täter, der den SSL-Schlüssel erlangt hat, eine gefälschte Webseite aufsetzt, Opfer dort hinlockt und vorgaukeln kann, es handele sich um die echte, abgesicherte Seite”. Der Aufwand ist also nicht unerheblich.

Zertifikatsprüfung weitgehend nutzlos

“Der Zertifikatswechsel ist aber leider auch nur als symbolischer Akt zu sehen, da widerrufene Zertifikate in den meisten Browsern zu keiner Warnung führen. Ist der SSL-Schlüssel einer Webseite also erlangt worden, bleibt die Gefahr von Man-in-the-Middle-Angriffen bestehen”, heißt es vom BSI.

Es gebe gegenwärtig ohnehin kein funktionierendes System, mit dem Zertifikate überprüft werden könnten, sagt auch der Kryptografie-Experte und Golem.de-Autor Hanno Böck. Einige Browser überprüften zwar die Gültigkeit der Zertifikate, aber die Prüfung sei weitgehend nutzlos, weil sie bei einem gezielten Angriff verhindert werden könne, so dass das Zertifikat trotzdem akzeptiert werde.

Der Betreiber einer betroffenen Website oder ein E-Mail-Anbieter muss seine Kunden informieren und ihnen nahelegen, ihre Kennwörter zu ändern. Viele große Anbieter hätten das auch getan, “schon allein, um eventuelle Haftungsfragen auszuschließen”, teilte das BSI mit.

Hacker hatten keine Zeit, die Sicherheitslücke zu nutzen

Nach geltendem Datenschutzrecht müssen Einbrüche bei Plattformen, bei denen Daten gestohlen wurden, den Datenschutzbehörden gemeldet werden. Andernfalls drohen Bußgelder von bis zu 300.000 Euro. “Dem BSI wurden keine Vorfälle aus Deutschland gemeldet”, hieß es aus der Behörde. Auch große Internetkonzerne wie Google mit seinem E-Mail-Dienst Gmail gaben zwar an, von dem Heartbleed-Fehler betroffen zu sein. Dort waren die Lücken laut Google jedoch schon geschlossen, bevor die Heartbleed-Lücke öffentlich bekanntwurde. Google-Mitarbeiter hatten den Fehler gleichzeitig mit zwei unabhängigen Experten entdeckt.

Möglicherweise führte die massive Aufmerksamkeit zu einer so raschen Reaktion der meisten Betroffenen, dass potentielle Angreifer kaum Zeit hatten, die Sicherheitslücke effizient auszunutzen. Der einzige bekannte Fall ist der eines kanadischen Hackers, der sich über die Heartbleed-Lücke Zutritt zu Finanzbehörden verschaffte. Er wurde kurz darauf verhaftet.

Dennoch gibt es immer noch Grund zur Vorsicht: Vor allem über Links in Spam-Mails können Anwender auf gefälschte Websites gelangen, die mit bereits ungültigen Zertifikaten vom Browser als vertrauenswürdig eingestuft werden. Vermeintlich gesicherte Websites sollten beim ersten Besuch genau betrachtet werden, oft sind dort Unregelmäßigkeiten erkennbar, etwa sprachliche Fehler.

Nach Einschätzung des BSI ist die Gefahr beim Thema Heartbleed größtenteils gebannt. Erfahrungsgemäß bleibe zwar immer ein gewisser Prozentsatz an nicht aktualisierten Seiten übrig, man rechne jedoch nicht mehr mit massiven Fällen, hieß es von der Behörde.

 

Zur Internetseite:

www.golem.de/news/



 
 
 

Recht auf Vergessen bei Google: Zehntausende Löschanträge


Posted on: Juni 29th, 2014 by linkhero
 

Recht auf Vergessen bei Google

Die Möglichkeit, Verweise bei der Suchmaschine entfernen zu lassen, wird offenbar rege genutzt. Google informiert, dass über 40.000 Anträge gestellt wurden.


Am ersten Tag hatte es 12.000 Anfragen gegeben. Jetzt wird klar, dass das Interesse auch danach hoch geblieben ist. Das wirft die Frage auf, wie hoch der Aufwand von Google für die Bearbeitung am Ende sein wird und wie lange die Prüfung dauern könnte. Google-Chef Larry Page hatte bereits gewarnt, die EuGH-Entscheidung könne jungen Internet-Startups schaden, die nicht über die Ressourcen seines Konzerns verfügten.

 

Die Flut von Anträgen zur Löschung von Suchergebnissen bei Google ebbt nicht ab. Bis Montagabend gingen rund 41.000 Anträge ein, wie ein Google-Sprecher am Mittwoch mitteilte. Der Konzern hatte erst am Freitagmorgen in Europa ein Online-Formular für die Anträge freigeschaltet. Der Europäische Gerichtshof (EuGH) hatte vor gut zwei Wochen entschieden, dass Europas Bürger Google dazu verpflichten können, Links zu unangenehmen Dingen aus ihrer Vergangenheit aus dem Netz verschwinden zu lassen.

Google macht noch keine Angaben dazu, wie viele Links von den Anträgen betroffen sind und wie sich die Anfragen auf einzelne europäische Länder verteilen. Von den „einigen tausend“ Anträgen, die noch vor Bereitstellung des Web-Formulars eingingen, kamen laut Google 40 Prozent aus Deutschland.

Google soll die Verweise aus seiner Ergebnisliste entfernen, wenn dort enthaltene Informationen das Recht auf Privatsphäre und Datenschutz einer Person verletzten. Die Informationen können dabei auch weiterhin im Netz verfügbar bleiben.

Google will nur Links in seinen Diensten in den 28 EU-Ländern sowie Island, Norwegen, Lichtenstein und der Schweiz löschen – nicht aber etwa in der Domain google.com. Der Konzern rechnet damit, dass es strittige Fälle geben wird, die vor Gericht landen werden.

 

Originalbeitrag:

http://www.taz.de/Recht-auf-Vergessen-bei-Google


 
 
 

Gehackte E-Mail-Accounts, Malware oder IT-Spionage – angesichts publik gewordener Fälle von Sicherheitslücken sind die Gefahren durch Trojaner und andere digitale Schädlinge mehr denn je in aller Munde. Der Schutz vor Computerkriminellen, die danach trachten, ganze Firmennetze lahmzulegen, steht daher ganz oben auf der Aufgabenliste der Entscheider in den Unternehmen. Zuverlässige Sicherheitssoftware ist dabei ein Muss. Aber welcher Anbieter von Security-Programmen bietet qualitativ hochwertige Produkte? Und welcher Hersteller überzeugt durch eine ausgeprägte Kundenorientierung sowie ein gutes Preis-Leistungs-Verhältnis? Das Deutsche Institut für Service-Qualität ermittelte in einer Befragung im Auftrag des Wirtschaftsmagazins “Markt und Mittelstand” die Zufriedenheit von IT-Entscheidern mit sechs bedeutenden Anbietern für Sicherheitssoftware.

Insgesamt schnitt die Branche sehr gut ab. Rund 81 Prozent der IT-Entscheider lobten die geringe Ausfallquote der Programme und waren der Ansicht, dass das Portfolio des Software-Unternehmens ihre Bedürfnisse abdeckt. Mehr als drei Viertel der Befragten gaben zudem an, dass sich die Mitarbeiter nur selten über die Security-Programme beschweren.

In einem entscheidenden Punkt zeigte sich allerdings Verbesserungspotenzial: “Mit der Schutzfunktion der eingesetzten Software war gut ein Fünftel der Befragten nicht vorbehaltlos zufrieden oder sogar unzufrieden”, kritisiert Markus Hamer, Geschäftsführer des Deutschen Instituts für Service-Qualität. Zudem waren nur knapp 70 Prozent der Teilnehmer der Meinung, dass die Konditionen und das Preis-Leistungs-Verhältnis der Software-Anbieter in Ordnung seien. Updates für die eingesetzte Software stellten die Hersteller laut gut drei Viertel der Befragungsteilnehmer zuverlässig zur Verfügung. Verbesserungswürdig war auch die Beratungsleistung der Software-Firmen: Weniger als 75 Prozent der befragten IT-Entscheider waren mit der Beratung durch die Hersteller vorbehaltlos zufrieden.

Den ersten Rang erreichte Kaspersky. In den Kategorien Leistung, Angebot und Produkte überflügelte dieser Anbieter die Wettbewerber in der Gunst der befragten Kunden. Sehr gut schnitt Kaspersky auch im entscheidenden Punkt ab – der Schutzfunktion der Software. Das exzellente Preis-Leistungs-Verhältnis rundete das hervorragende Resultat ab. Der Zweitplatzierte IBM tat sich nach Meinung der Befragten vor allem durch seine ausgeprägte Kundenorientierung hervor. Die Teilnehmer honorierten jedoch auch die verlässliche Leistung der Software und das sehr gute Angebot. Symantec wurde Dritter. Zu den Stärken dieser Firma zählte das stimmige Gesamtangebot aus sehr guten Konditionen und umfangreichem Portfolio.

Für die Untersuchung zur Zufriedenheit von Unternehmen mit Anbietern von Sicherheitssoftware wurden 150 Entscheider telefonisch zu sechs bedeutenden Herstellern befragt. Mit der Kundenbefragung beauftragte das Deutsche Institut für Service-Qualität den Feldspezialisten Krämer Marktforschung. Im Mittelpunkt der Befragung standen die Meinungen zu den Bereichen Leistung, Angebot, Produkte und Kundenorientierung.

Das Deutsche Institut für Service-Qualität (DISQ) verfolgt das Ziel, die Servicequalität in Deutschland zu verbessern. Das Marktforschungsinstitut mit Sitz in Hamburg führt zu diesem Zweck unabhängige Wettbewerbsanalysen, B2B-Studien und Kundenbefragungen durch. Rund 1.500 geschulte Tester sind in ganz Deutschland im Einsatz. Die Leitung der Forschungsprojekte, bei denen wissenschaftlich anerkannte Methoden und Service-Messverfahren zum Einsatz kommen, obliegt einem Team aus Soziologen, Ökonomen und Psychologen. Dem Kunden liefert das Institut wichtige Anhaltspunkte für seine Kaufentscheidungen. Unternehmen gewinnen wertvolle Informationen für das eigene Qualitätsmanagement. Das Deutsche Institut für Service-Qualität arbeitet im Auftrag von renommierten Print-Medien und TV-Sendern; Studien für Unternehmen gehören nicht zum Leistungsspektrum des DISQ.

Veröffentlichung nur unter Nennung der Quelle: Deutsches Institut für Service-Qualität im Auftrag von "Markt und Mittelstand" 

Pressekontakt:

Markus Hamer Fon: +49 (0)40 / 27 88 91 48 - 11 Mobil: +49 (0)176 / 64 03 21 40 E-Mail: m.hamer@disq.de 
www.disq.de

Ursprünglich veröffentlicht:
www.presseportal.de/pm/

 
 
 

Samsung: Galaxy S4 Mini ist eher ein Galaxy Ace 4


Posted on: April 29th, 2014 by linkhero
 

 

Samsung wird aller Voraussicht nach am 20. Juni 2013 das Galaxy S4 Mini vorstellen. Vorab sind erste technische Daten bekanntgeworden. Demnach hat das Galaxy S4 Mini mit dem Galaxy S4 von der technischen Ausstattung her nicht viel gemeinsam.

Am 20. Juni 2013 wird Samsung in London mindestens ein neues Smartphone vorstellen. Wie das Wall Street Journal mit Verweis auf informierte Kreise berichtet, wird an diesem Tag offiziell unter anderem das Galaxy S4 Mini vorgestellt. Außerdem will Samsung weitere Smartphones zeigen. Neben Geräten mit Android sind auch neue Smartphones mit Microsofts Windows-Phone-Plattform geplant. Wann das Galaxy S4 Mini in den Verkauf gehen wird, ist nicht bekannt. Vor ein paar Tagen hat Samsung das Galaxy S4 Mini alias GT-I9195 kurzzeitig bereits im eigenen Appstore gelistet. Read the rest of this entry »


 
 
 

IGZO-Displays: Qualcomm steigt bei Sharp ein


Posted on: April 28th, 2014 by linkhero
 

Der Chip-Hersteller Qualcomm und der angeschlagene Elektronik-Konzern Sharp wollen die Entwicklung und Vermarktung von flachen und stromsparenden Displays mit IZGO-technologie vorantreiben.

NTT Docomo bietet mit dem Sharp Aquos Phone Zeta SH-02E aktuell das erste Smartphone mit IGZO-Display an.
Foto: NTT Docomo

Qualcomm wird zum Anteilseigner am japanischen Elektronik-Konzern Sharp. Das teilt das Unternehmen heute per Pressemitteilung mit. Qualcomm und Sharp wollen künftig bei der Weiterentwicklung und der Vermarktung von IZGO-Displays zusammenarbeiten. Beispielsweise sollen die MEMS-Displays der schon seit anderhalb Jahren mit Sharp zusammenarbeitenden Qualcomm-Tochter Pixtronix auf IGZO-Technologie basieren. Read the rest of this entry »


 
 
 

Neue Bildersuche: Fotografenverband klagt gegen Google


Posted on: April 27th, 2014 by linkhero
 

Hamburg – Freelens will Google untersagen lassen, bei seinem Bildersuchdienst auch bildschirmfüllende Fotos anzuzeigen. Nachdem Google auf eine Aufforderung zur Unterlassungserklärung nicht reagiert habe, habe man beim Landgericht Hamburg Klage gegen das Unternehmen eingereicht, erklärte der Verband am Freitag. Freelens warf dem US-Konzern vor, gegen das deutsche Urheberrecht zu verstoßen. “Es muss daher gerichtliche Hilfe in Anspruch genommen werden, um den fortdauernden Eingriff in Fotografenrechte zu beenden”, hieß es in der Freelens-Erklärung. Read the rest of this entry »


 
 
 

US-Börsenaufsicht lässt Kommunikation über Soziale Netze zu


Posted on: April 27th, 2014 by linkhero
 

CEOs und andere Mitglieder der Geschäftsführung börsennotierter Unternehmen können künftig Facebook und Twitter für Ankündigungen nutzen – unter einer Bedingung. Sie müssen nämlich ihre Investoren darauf hingewiesen haben, dass sie eventuell diese Kommunikationskanäle nutzen werden. Das steht in neuen Richtlinien der US-Börsenaufsicht Securities and Exchange Commission, kurz SEC. Read the rest of this entry »


 
 
 

Google: Wo Malware zu Hause ist


Posted on: April 25th, 2014 by linkhero
 

 

Google erweitert seinen Transparenzbericht um Informationen aus seinem 2006 gestarteten Programm Safe Browsing. Erkennbar wird, wo in der Welt betrügerische oder bösartige Websites gehostet und wie schnell Websites nach einer Säuberung von Malware erneut befallen werden.

Mit seinem Programm Safe Browsing schützt Google Internetnutzer vor Malware und Phishing: Browser, nicht nur Google Chrome, nutzen die Daten, um vor dem Besuch als gefährlich markierter Seiten zu warnen, sollte ein Nutzer diese anklicken. Insgesamt greifen mehr als 1 Milliarde Nutzer auf die Daten zu. Read the rest of this entry »


 
 
 

Auf Youtube findet man praktisch alles: Vom sozialpornographischen Realityblog, über Nachrichten und Modetipps bis zur hochpreisigen Unterhaltungsproduktion. Old news. Doch während Fernsehanstalten und Musikverlage ihre liebe Not mit Googles medialem Machtzentrum und der werbefinanzierten Gratiskultur haben, hat die Videospielbranche vielleicht wie keine andere Industrie vom Web-Video-Boom profitiert. Videospielportale machen ihre Tests und redaktionellen Vorschauen über Youtube der ganzen Welt verfügbar, Spieler filmen sich beim Spielen und Hersteller nutzen die Plattform gekonnt, um Werbung für ihre Werke zu betreiben. Read the rest of this entry »


 
 
 

Phablets sind aktuell stark im Kommen. Doch während andere Hersteller den großen Smartphones nicht die schnellste Hardware mit auf den Weg geben, macht Sony keine halben Sachen: Im 6,4 Zoll großen Xperia Z Ultra steckt nur das Beste.

Wer glaubt, dass mit dem Samsung Galaxy Mega 6.3 die letzte Runde im Kampf um das größte Smartphone eingeläutet wurde, der irrt. Fast jeder Hersteller, der etwas auf sich hält, hat bereits ein so genanntes Phablet im Portfolio oder zumindest angekündigt. So bringen etwa LG und HTC in Kürze Geräte mit rund 5,5 Zoll Diagonale auf den Markt. Read the rest of this entry »


 
 
 
Cookies haben mitunter einen schlechten Ruf: Manche User glauben, die kleinen Textdateien würden sie ausspionieren. Dabei sind die „Kekse“ weder schlecht noch gut – sie machen das Surfen im Netz nutzerfreundlicher.
Cookies sind unscheinbar und passiv. Webseiten hinterlegen die kleinen Textdateien auf den Computer-Festplatten von Internetnutzern. Was die Cookies tun, merkt der User nicht – jedenfalls nicht direkt. Denn die Informationen, die in den Dateien gespeichert sind, helfen dem User beim Surfen im Netz. Sie machen es persönlicher.

Wenn ein User beispielsweise die Seite eines Online-Shops aufruft, dann hilft das Cookie dabei, den Rechner des Users wiederzuerkennen. Die Shop-Seite kann den Nutzer zum Beispiel persönlich begrüßen oder ihm Vorschläge für Bücher, CDs oder DVDs machen, die ihn interessieren könnten. „Cookies dienen der Benutzerfreundlichkeit des Online-Erlebnisses, indem sie Voreinstellungen und Präferenzen abspeichern, die beim nächsten Besuch automatisch wiederhergestellt werden können – zum Beispiel Sprache, Auflösung des Monitors, im Warenkorb abgelegte Produkte oder Einstellungen in Foren“, sagt Eugen Schmidt, Vorstand der Österreich-Sektion des IAB (Internet Advertising Bureaus). Das IAB repräsentiert Medien- und Technologiekonzerne, die sich mit Online-Anzeigen befassen. Read the rest of this entry »


 
 
 

Vor wenigen Zagen ist mit 10000 Flies eine neue Plattform für Social-Media-News-Charts gestartet. Dabei werden täglich die am meisten über Facebook, Twitter und Google+ empfohlenen und geteilten, deutschsprachigen Artikel präsentiert. Hinter dem Projekt stehen die Düsseldorfer Agentur active value und der Meedia-Autor Jens Schröder.

“Vierstellige Zahl von Quellen”

Für die Charts werde eine “vierstellige Zahl von Quellen” aus Deutschland, Österreich, der Schweiz und anderen deutschsprachigen Regionen herangezogen. Pro Monat würden etwa 250.000 Artikel zusammenkommen. In der Auswertung werde berücksichtigt, welche Inhalte die meisten Likes, Shares und Kommentare bei Facebook bekommen haben, welche am meisten auf Twitter verlinkt wurden und für welche am häufigsten “+1″ bei Google bekommen haben. Read the rest of this entry »


 
 
 

Erneute Gerüchte um kleinere GeForce GTX Titan LE


Posted on: April 24th, 2014 by linkhero
 

Bereits vor gut zwei Wochen tauchten erste Spekulationen auf, die dem aktuellen Single-GPU-Flaggschiff aus dem Hause Nvidia, der GeForce GTX Titan, einen kleineren Ableger zusprachen. Seitens eines Softwareanbieters wird nun die Unterstützung einer „GeForce GTX Titan LE“ angeboten.

In der Vergangenheit waren es oft die Anbieter von Software, die das eine oder andere neue Produkt bereits Monate vor dem offiziellen Start verraten haben. Passend zu den bereits bekannten Gerüchten über einen kleineren Ableger der GTX Titan haben die Entwickler des Tools HWiNFO in der gestern veröffentlichten Version v4.15 Build 1895 Beta (ComputerBase-Download) die Unterstützung für die „GeForce GTX Titan LE“ implementiert. Parallel dazu wurde auch die Erkennung der Tesla K20 und K20X hinzugefügt. Read the rest of this entry »


 
 
 

Intel hat auf dem heute beginnenden Mobile World Congress 2013 in Barcelona neue Prozessoren für Mobiltelefone und Tablets vorgestellt. Darunter ist die Clover Trail+ genannte erste Zweikern-CPU des Unternehmens für Smartphones. Der Atom-Chip soll die doppelte Performance seines Vorgängers Medfield bieten und die Grafikleistung sogar verdreifachen. Der Energieverbrauch bleibt dabei nach Unternehmensangaben jedoch gleich. Read the rest of this entry »


 
 
 

Original-Quelle: http://www.golem.de

Reiche Prinzen und Verwandte, die in Afrika Millionenerben hinterlassen haben – eine Studie von Microsoft zeigt: Je hanebüchener die Geschichten in den Scamming-E-Mails der Nigera Connection, desto erfolgreicher sind die Betrüger.

So eine E-Mail hat fast jeder wohl schon erhalten: Jemand aus Nigeria oder einem anderen afrikanischen Land verspricht ein Millionenerbe, wenn der Empfänger nur einige Hundert US-Dollar oder Euro zur Klärung letzter anwaltlicher Fragen überweist. Sie landet bei den meisten Anwendern dort, wo sie hingehört: im E-Mail-Papierkorb. Die meisten Texte sind in schlechtem Englisch oder Deutsch verfasst und wecken schon dadurch den Argwohn der Empfänger. Ebenso die übertriebenen Geschichten, zum Beispiel vom reichen Prinzen, Verwandten oder Banker, der ausgerechnet dem Empfänger ein Vermögen hinterlassen hat. Read the rest of this entry »


 
 
 

Firefox 22 Beta bringt vollständige Unterstützung für WebRTC


Posted on: April 23rd, 2014 by linkhero
 

Mozilla hat eine Beta von Firefox 22 für Windows, Mac OS und Linux veröffentlicht. Sie liefert unter anderem vollständigen Support für WebRTC, das jetzt standardmäßig aktiviert ist. WebRTC steht für Web Real-Time Communications und ist ein HTML5-Standard zum Streamen von Dateien, Video und Audio über das Web.

 

Im April hatte Mozilla in Firefox 20 erstmals die WebRTC-Komponente getUserMedia für den direkten Zugriff auf Webcam und Mikrofon aktiviert. In Firefox 22 stehen jetzt auch die verbleibenden Bestandteile PeerConnection und DataChannels zur Verfügung, wie Mozilla in einem Blogeintrag schreibt. Read the rest of this entry »


 
 
 
Der Kurznachrichtendienst Twitter führt als Reaktion auf die jüngsten Hackattacken ein zweistufiges Anmeldesystem ein. Es wird neben dem Passwort einen dem Onlinebanking ähnlichen Zugangscode geben.

Nach einer Serie gravierender Hackerangriffe auf Medien verschärft Twitter seine Sicherheitsmaßnahmen. Read the rest of this entry »


 
 
 

Google-Initiative bietet Hilfe für gehackte Sites


Posted on: April 22nd, 2014 by linkhero
 

Google hat ein Informationsangebot “Help for Hacked Sites” gestartet, das Artikel und Videos für Webmaster von kompromittierten Websites enthält. Es informiert die in solchen Fällen meist geschockten Betreiber, welche Schritte sie nach einem Sicherheitsvorfall als erstes einleiten sollten und wie sie die Kontrolle über ihre Server zurückerlangen. Read the rest of this entry »


 
 
 

Man vermag überhaupt nicht abschätzen, wieviel Schaden den Anwendern in Bezug auf der fehlenden Reservekopie aufgetreten ist. Des Öfteren wird einem das erst dann spürbar, sofern der GAU eingetreten ist. Der PC Notdienst mein PC wieder ok hatte mir die entscheidenden Ratschläge mitgeteilt, ich habe es somit so durchgeführt, sowie es in dem Post beschrieben ist. Diese Web-SeiteRead the rest of this entry »


 
 
 
Zum Hochfahren braucht das alte Notebook eine Ewigkeit, bei mehr als drei geöffneten Word-Dokumenten streikt es ganz. Doch mit ein paar Klicks, Tricks und Upgrades machen Computerbesitzer alte Rechner wieder flott.

Der Computer ist mehrere Jahre alt und läuft nur noch im Schneckentempo? Da liegt der Gedanke nahe, ihn in den Ruhestand zu schicken. Es gibt aber neben dem Preis für einen Neukauf durchaus Gründe, es weiter mit dem alten Modell zu versuchen, sagt Hans Stahl, Direktor am Institut für Informatik der Fachhochschule Köln. „Bei all den seltenen Rohstoffen, die in Laptops stecken, hilft es der Umwelt, Geräte nicht schnell zu verschrotten.“

Häufig bringt es schon viel, den PC ein wenig aufzuräumen. Denn auf langsamen Computern sind oft zu viele Anwendungen gleichzeitig geöffnet. „Aktive Programme belegen den Arbeitsspeicher, und alte Laptops haben davon relativ wenig“, erklärt Informatik-Professor Olaf Spinczyk von der Technischen Universität Dortmund. Welche Prozesse gerade laufen, zeigt Windows im Taskmanager (Strg+Alt+Entf), auf Apple-Rechnern gibt es dafür die Aktivitätenanzeige (Apfel+Alt+Esc). Viele Programme öffnen sich beim Hochfahren von selbst. Diese Autostart-Funktion sollte man bei allen Anwendungen ausschalten, die nicht permanent gebraucht werden. Read the rest of this entry »


 
 
 

Bericht: Sharp fährt iPad-Displayproduktion herunter


Posted on: April 21st, 2014 by linkhero
 

Apple-Lieferant Sharp hat einem Bericht zufolge die Produktion von 9,7-Zoll-iPad-Bildschirmen stark reduziert. Im Werk Kameya bei Tokio sei die Fertigung auf das absolute Minimum heruntergefahren worden, schreibt die Agentur Reuters. Eine graduelle Senkung des Produktionsumfangs habe schon Ende 2012 eingesetzt.

 

Die Quellen der Agentur sprechen von einer “saisonalen Anpassung”. Zum Teil liegt die Entwicklung wohl auch an einer stärkeren Nachfrage nach kleineren Bildschirmen für das iPad Mini, dessen Displaydiagonale 7,9 Zoll beträgt. Die Marktforscher von Macquarie gehen sogar davon aus, dass die Nachfrage nach den großen iPads im vierten Quartal um 40 Prozent eingebrochen ist. Read the rest of this entry »