Wenn du noch mehr treiber suchst, dann versuchs doch mal mit Software, welche Treiber selber aktuallisieren. Ob es gute kostenlose gibt, weis ich nicht.
Wenn auch andere Antworten gestattet sind (anzeigen)
VRAM ist vom normalen RAM physisch getrennt und ist somit direkt von der GPU steuerbar und nicht von der CPU abhängig. Dadurch entstehen extrem kurze Zugriffszeiten und eine schnelle Adressierung der Daten. Ist viel VRAM vorhanden, kann die GPU viel mehr Datenabläufe in kurzer Zeit abfertigen, als es mit wenig VRAM der Fall wäre. Die Grafikkarte nutzt den Grafikspeicher bis zum maximum aus, wenn das Spiel es erfordert. Ruckelt dein Spiel, ist entweder nicht genug VRAM vorhanden, oder dein Chip bzw. Takt ist zu schlecht. Manuell zuweisen geht hier leider nicht. Dafür gibt es viele Gründe. Ein wesentlicher ist, dass die aktuellen Karten mit GDDR5 arbeiten und normale Arbeitsspeicher mit DDR3 arbeiten. Wie du vielleicht vom normalen RAM auf dem motherboard weißt, kann mann keine verschiedenen typen kombinieren. also nur identischer RAM und nicht etwa ein riegel DDR3 und einer DDR2. man kann also nicht mehr VRAM schaffen, als von der Karte bereits gegeben wird. du kannst aber trotzdem die Priorität erhöhen, obwohl diese bestimmt nur für die CPU gillt.
"Battlefield is no f***ing Flying-school"
[2low]-KSK-Junkstarr
"Phantasie ist wichtiger als Wissen, denn Wissen ist begrenzt"
Albert Einstein
@all:
Wie ihr sicher bemerkt antworte ich nicht direkt. Ich warte meist um ein paar Fragen anzusammeln und die dann zu beantworten.
@clutchi:
Nicht, dass es mir bekannt ist. Mir ist auch kaum ein Szenario bekannt, in dem man viel Grafikpower in einer virtuellen Maschine benötigt. Es gibt einige Möglichkeiten, die Grafikkarte in einer VM direkter anzusprechen (sonst läuft das meist über einen Hypervisor), aber für diese Systeme ist jeweils das System des Gastes und des Wirts, sowie die eingesetzte Hardware ausschlaggebend. Daher kann ich dir wenig dazu sagen.
@bvb1909:
Das ist kein Support-Thread Ansonsten hilft meist die Herstellerwebseite und Google.
Noch so als Tipp: In 99% der Fälle könnt ihr Treiber-CDs vergessen, die Treiber dort sind meist veraltet. Geht auf die Hersteller-Webseite und ladet euch den neusten Treiber herunter
@gruschi:
Linux-Treiber sind immer so eine Sache. Oft sind welche vorhanden, sonst hat man statt Plug'n'Play oft Plug'n'Pray. Hier hilft meist nur eine Google-Suche und viel Lesen, da solche Infos meist an vielen verschiedenen Stellen verstreut sind. Besonders mit exotischer Hardware (z.B. No-Name Hardware) hat man oft Probleme. Früher gab es auch oft Probleme unter Linux mit WLAN-Adaptern, wie das heute aussieht weiß ich nicht. Meine Hoffnung ist noch immer, dass alle Hardware-Hersteller bei der Erstellung von Linux-Treibern mithelfen ...
@Vizor:
Echter VRAM heute ist echt eine Rarität. Eher hat man heute RAM in Form von GDDR (Graphics Double Data Rate), welcher aber nicht mit dem DDR-RAM in den PCs verwechselt werden darf.
Der Speicher auf der Grafikkarte wird für einige Dinge genutzt, so werden z.B. Texturen darin gespeichert oder auch fertig gerenderte Bilder, bevor sie an den Monitor geschickt werden. Ein Eingriff in die Speichersteuerung ist meines Wissens nach nicht immer Möglich und sollte auch unterlassen werden, da hier meist ausgiebig getestete Algorithmen dahinter stecken. Genauso sind Programme, die den RAM "tweaken" wollen Bullshit.
Habe vor kurzen noch dieses Video zum Thema DDR/GDDR gefunden. Es erklärt auch denke ich einige Aspekte, die für dich interessant sein könnten:
Ich würde mich freuen, wenn du mir mal klar machen könntest, warum ein Quantenprozessor mit Dezimalzahlen rechnen kann und dadurch schneller ist als der "herkömmliche".
0 steht ja für sagen wir mal "off" und 1 für "on". Der Binärcode halt.
Wenn er aber mal mit 0.5 rechnen muss, ist er dann halb "on" und halb "off". Bei 0.2 mehr "off" wie "on" ?
Ich würde mich freuen, wenn du mir mal klar machen könntest, warum ein Quantenprozessor mit Dezimalzahlen rechnen kann und dadurch schneller ist als der "herkömmliche".
0 steht ja für sagen wir mal "off" und 1 für "on". Der Binärcode halt.
Wenn er aber mal mit 0.5 rechnen muss, ist er dann halb "on" und halb "off". Bei 0.2 mehr "off" wie "on" ?
Ufff. Nettes Thema, aber momentan bin ich leider mit dem Kopf ganz woanders (Klausuren stehen bald an). Dennoch kann ich mal ein paar meiner Gedankengänge darlegen (und eventuell noch Stoff auffrischen ).
Eine Dezimalzahl wird bei PCs gerne als Floating Point Zahl dargestellt (http://de.wikipedia.org/wiki/Gleitkommazahl). Damit lässt sich auch gut Rechnen. Die Rechnung erfolgt durch Gatter, die alle eine gewisse Durchlaufzeit haben. Am meisten Aufwand machen hier Multiplikation und noch mehr Aufwand macht die Division. Hier sind im Vergleich zur Addition und Substraktion (die im Endeffekt eine Addition ist) viel mehr Taktzyklen nötig.
Bei Quantencomputern sind diese Rechenwerke anders realisiert (fragt mich nicht wie). Ich denke aufgrund der Physik haben die eine wesentlich geringere Durchlaufzeit als die elektrischen.
Wie gesagt, eine gute Antwort kann ich dir leider nicht geben (momentan vor allem nicht). Konnte leider auch nicht auf die Schnelle was zu dem Thema finden.
Auch wenn ich daraufhin von Leuten gehatet werde, die es nicht komplett zu Ende lesen: Windows 8 war überfällig!
Apple und auch Google haben mit ihren Systemen bisher den Tablet-Markt dominiert. Zwar gab es schon so eine Art XP für Tablets, aber das hat damals keinen interessiert. Und natürlich lässt sich Microsoft keine Chance entgehen, sein Ökosystem weiter auszubauen (siehe Windows Phone und eben Windows 8). Deswegen war Windows 8 überfällig, eigentlich (fast) schon zu spät.
Allerdings hat Microsoft mit Windows 8 einen großen Fehler gemacht: Jedem Nutzer wurde die ModernUI aufgezwängt. Ein Schritt, der sehr in die Kritik geraten ist (und weswegen Windows 8 auch einen schlechten Ruf hat). Ich selbst finde sie in Ordnung, allerdings auf Desktop-Rechnern ohne Touchscreen mist. Hier hätte Microsoft das besser lösen können (sind sie auch dabei, Gerüchten nach soll im Herbst ein Update für Windows 8.1 kommen, welches das Startmenü zurück bringt) als das was bisher ist. Ich setze privat auch Windows 8.1 ein, allerdings mit einem Startmenü und den Desktop Gadgets von Windows 7.
Ursprünglich war Windows 8 auch als langfristiges System geplant, das mehrere Updates erfahren soll, ähnlich wie OS X. Daraus wird aber dank des schlechten Rufes von Windows 8 leider/zum Glück nichts mehr.
Arch Linux reizt mich momentan sehr. Leider nutze ich es momentan nicht produktiv, sondern nur in einer virtuellen Maschnine, mir gefällt aber das Konzept. Aber gleich als Warnung: es ist nicht unbedingt für blutige Anfänger geeignet. Hier ist Ubuntu die bessere Wahl. Auch wegen stabilerer Software läuft mein Server mit Ubuntu.
Aber nun zurück zum Thema. Eingestiegen bin ich vor mehr als 10 Jahren mit KDE. Mittlerweile hat sich viel getan und ich persönlich finde GNOME 3 besser. Man muss eben schauen, mit was man besser klar kommt und was einem besser gefällt. Neben KDE und GNOME gibt es ja noch XFCE, Cinnamon etc. Alle haben ihre Vor- und Nachteile. Es ist meiner Meinung nach eine Geschmackssache, ähnlich wie ein Desktophintergrund etc.
Aber ganz ohne mein geliebtes Terminal komme ich nicht aus. Es gibt einfach Dinge, die man auf der GUI nicht machen kann. Zudem administriere ich meinen Server auch komplett über die Konsole.
Was ist ein "Bastard Operator From Hell", abk. BOFH?
Hab dazu was in Wikipdeia gelesen, hab aber mal einfach nichts gerafft.
BOFH <3 (ich muss unbedingt mal weiterlesen ...)
Beim BOFH handelt es sich um den Admin, den sich NIEMAND wünscht (und dem man selbst seinem schlimmsten Feind nicht wünscht). Beim BOFH handelt es sich um ewig alte Geschichten (damals, als es noch Disketten gab ...). Wenn man 0,0 von Informatik versteht versteht man die Geschichten nicht. Wenn man aber etwas von Informatik versteht, dann kann man sich darüber auch den Arsch ablachen.
In dem Sinne: Haltet eure Disketten-Boxen hoch, heute ist das Erdmagnetfeld recht stark
Omg.... ich bin gerade das ganze von bofh ein bisschen am lesen, zum schiessen XD
Ne Frage habe ich auch, was meinst du wird die nächste Fertigungsstufe ( Glaube 22nm) der Prozessoren einen grossen Leistungsschub bringen oder eher einen kleinen ?
Habe ja ein paar Gerüchte über lediglich kleineren Stromverbrauch gehört.
Mfg Toxikum
Dieser Beitrag wurde zuletzt bearbeitet: 23.05.2014 17:06 von Toxikum.
Eine Verkleinerung der Struktur bringt wenig Leistungssteigerung mit sich. Man kann eben mehr Komponenten auf den Chip setzen und hat auch Energie- und damit auch Abwärmeersparnisse.
Natürlich wird mit der Strukturverkleinerung auch eine leichte Änderung an der Architektur des Chips erfolgen. Diese bringt auch einen kleinen Schub.
Den "großen" Leistungssprung sollte man erst zum Wechsel der Architektur erwarten (Bei Intel erfolgt Wechsel der Architektur und Verkleinerung der Struktur immer im Welchsel). Groß ist hierbei in Anführungszeichen, weil die Luft nach oben, was Leistungssteigerung angeht, immer dünner wird. Dies ist physikalisch bedingt. Deswegen geht man heutzutage auch immer weniger auf Singel Core Performance, da diese, wie bereits erwähnt ihre Grenze langsam aber sicher erreicht, sondern immer mehr Richtung Parallelisierung (mehr Kerne). Hiermit kann man teils mehr rausholen (natürlich nur, wenn eine Anwendung dies auch unterstützt).