[Linuxtrent] Re: rtl8139

  • From: Mirco Vivaldi <vivaldi@xxxxxxxxxxxxxxxxxxxxx>
  • To: linuxtrent@xxxxxxxxxxxxx
  • Date: Sun, 21 Apr 2002 23:14:12 +0200

On Sun, 21 Apr 2002 22:18:27 +0200
"Mattia Martinello" <m.martinello@xxxxxx> wrote:

> 
> Ciao a tutti
> 
> Ho collegato due server (SuSE 7.1 e kernel 2.2.18 su entrambi) con due
> schede di rete 10/100 aggiuntive basate sul chipset RTL8139C con un cavo
> cross, evitando così di passare attraverso l'hub a 10Mbit/s (visto che ho
> bisogno di un veloce trasferimento dei dati).
> Il tutto funzionerebbe correttamente, se non fosse che i dati vengono
> trasferiti da un server all'altro a non più di 1,5MB/sec (ho fatto delle
> prove con FTP anche calcolando il tempo manualmente). Le due schede sembrano
> quindi funzionare a 10Mbit, anzichè a 100Mbit come dovrebbero andare
> (essendo tra di loro collegate direttamente con un cavo cross).
> 
> Ho provato a caricare il modulo rtl8139 con l'opzione "options=0x20", ma
> così facendo le schede non dialogano nemmeno.
> Ho provato ad impostare 100baseT-FD sulla EPROM con l'utility rtl8139-diag,
> ma niente da fare...
> 
> Come posso far andare queste schede a 100Mbit? Se no sarebbe inutile il
> collegamento diretto (sarei passato dall'hub)...
> 
> Grazie mille
> Ciao
> mattia
> 
> 
> -- 
> Per iscriversi  (o disiscriversi), basta spedire un  messaggio con SOGGETTO
> "subscribe" (o "unsubscribe") a mailto:linuxtrent-request@xxxxxxxxxxxxxxxxx
> 
> 
> 
Allora non sono sicuro, ma qualcuno (se non mi sbaglio un commesso della foxel) 
mi ha detto che con un cavo cross le skede vanno sempre a 10Mbit, e che bisogna 
avere uno switch per poterle sfruttare a 100Mbit....
Io non ne sono molto convinto, comunque cosi mi e' stato detto.
......

Comunque anche con uno switch di mezzo (come ho io) non ho mai visto andar 
sopra ai 4Mbyte al secondo sia facendo prove con ftp si con samba....
BOH....
Ciao
-- 
Per iscriversi  (o disiscriversi), basta spedire un  messaggio con SOGGETTO
"subscribe" (o "unsubscribe") a mailto:linuxtrent-request@xxxxxxxxxxxxxxxxx


Other related posts: