¿Por qué el command curl toma URL con parameters como input?

Sé tanto wget y curl . Siendo curioso, leí un poco sobre sus diferencias .

Hace poco intenté usar curl con una url que tiene parameters y resulta que curl strips baja los parameters de la url. La consecuencia es: no obtengo la página que solicité.

Entonces mi pregunta era, ¿por qué el command Curl hace eso?

Editar:

Intenté seguir

 # bare $ curl -s http://tag.mobitrans.fr/horairs/index.asp?rub_code=23&lign_id=4&sens=2 # double quotes $ curl -s "http://tag.mobitrans.fr/horairs/index.asp?rub_code=23&lign_id=4&sens=2" # single quotes $ curl -s 'http://tag.mobitrans.fr/horairs/index.asp?rub_code=23&lign_id=4&sens=2' # escaping special chars $ curl -s http://tag.mobitrans.fr/horairs/index.asp?rub_code=23\&lign_id=4\&sens=2 

FWIW: curl 7.34.0 (x86_64-apple-darwin13.0.0) libcurl/7.34.0 OpenSSL/1.0.1f zlib/1.2.8 libidn/1.26

Por favor, publique el command que usó? Es probable que solo necesite escaping de la URL porque tenía caracteres especiales para el shell, como apersands ( & ).

Ejemplo

 $ curl http://tools.pingdom.com/fpt/#!/dnmIG9/www.google.com bash: !/dnmIG9/www.google.com: event not found 

Sin embargo, si pongo la URL entre comillas simples:

 $ curl 'http://tools.pingdom.com/fpt/#!/dnmIG9/www.google.com' |& head -10 % Total % Received % Xferd Average Speed Time Time Time Current Dload Upload Total Spent Left Speed 0 0 0 0 0 0 0 0 --:--:-- --:--:-- --:--:-- 0<!--<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd"> <html xmlns="http://www.w3.org/1999/xhtml">--> <!DOCTYPE html> <head itemscope itemtype="http://schema.org"> <meta http-equiv="Content-Type" content="text/html; charset=UTF-8"/> <meta name="description" content="Use this free Website Speed Test to analyze the load speed of your websites, and learn how to make them faster."> <!-- Google PlusOne --> 

Otros asuntos

A veces necesita tener cookies locales o ser un determinado tipo de browser o incluso debe aparecer como procedente de una URL particular dentro del sitio. En esos casos, muchas veces puedes arreglártelas utilizando conmutadores adicionales para curl . Lo mismo se puede hacer con wget también, por cierto.