On 1/27/07, <b class="gmail_sendername">Gary M</b> &lt;<a href="mailto:garymcm@gmail.com">garymcm@gmail.com</a>&gt; wrote:<div><span class="gmail_quote"></span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
On 1/26/07, Steve Hodge &lt;<a href="mailto:stevehodge@gmail.com">stevehodge@gmail.com</a>&gt; wrote:<br>&gt; On 1/27/07, Gary M &lt;<a href="mailto:garymcm@gmail.com">garymcm@gmail.com</a>&gt; wrote:<br>&gt; The fact that the dongle works but not the cable doesn&#39;t prove that the
<br>&gt; cable doesn&#39;t carry analog - it could be that the TV only accepts digital<br>&gt; signals via DVI (this is common).<br>&gt;&nbsp;&nbsp;Steve<br><br>The TV definitely only has DVI-D. It was the card that had the<br>question mark. The DVI out of the card I am pretty sure is DVI-A only.
<br></blockquote></div><br>I doubt it would be intended to be DVI-A only, though it may be faulty. For one thing there&#39;s a DVI implementation built into the GPU, so there is nothing to gain by doing DVI-A only. For another, DVI-A is basically useless - there a few monitors/TVs that take it as an input. 
<br>Generally if you want analog you use VGA.<br><br>Anyway, I decided to double check that the FX5200 in my Myth box works ok with DVI (I usually use VGA). It does, but only if I have the &quot;TwinView&quot; option set to &quot;true&quot; in the Device section of my 
xorg.conf file (there are other TwinView related options you might need - look at the nvidia driver readme). If you&#39;ve got TwinView set correctly then perhaps the card is faulty. The FX5200s I use (and I&#39;ve had three of them) are pretty much always the cheapest I can find, no-name brands. I&#39;d be stunned if they output DVI-D but your one doesn&#39;t.
<br><br>Cheers,<br>Steve<br><br>