導航:首頁 > 源碼編譯 > 汽車之家網站源碼

汽車之家網站源碼

發布時間:2022-05-14 22:52:16

① 怎麼破解汽車之家網頁限制復制功能

點查看源碼,手動復制.

② 聯合蔚來汽車對抗特斯拉——小鵬P7上市發布

(文/編輯崇森)

小鵬汽車作為新勢力造車的代表之一,它的發展吸引了很多人的關注,近期也受到了同行的「霸凌」與「幫助」。「霸凌」是指4月25日,在特斯拉公開起訴曹光植一年多以後,特斯拉再一次向法院提出了新的訴求,希望小鵬汽車披露其自動駕駛技術源代碼,並且交出自動駕駛硬體的圖片。小鵬汽車隨後發布官方聲明,拒絕提供源代碼。「幫助」是指小鵬汽車與蔚來汽車實現充電網路的共享,也就是說蔚來的超級充電站支持小鵬汽車充電,小鵬車主打開APP掃碼即可啟動蔚來的超級充電樁充電。

在動力方面,小鵬P7四驅高性能版本車型的百公里加速僅在4.3s,採用前後雙電機組合,最大功率為316kW,最大扭矩可以達到655N·m;後驅長續航和後驅超長續航版本車型百公里加速在6.7s,電機最大功率為196kW,最大扭矩390N·m。

本文來源於汽車之家車家號作者,不代表汽車之家的觀點立場。

③ 何小鵬與馬斯克隔空互懟,小鵬汽車備戰明年要讓特斯拉找不著東

近日正火熱的廣州車展上,中國造車新勢力的代表之一小鵬汽車又有新動作。表示2021年將生產激光雷達提高自動駕駛架構性能的計劃,車輛對物體識別性能將會大幅度提升。

被媒體稱為「馬斯克背後的中國女博士」,回國進入小鵬應該是給馬斯克不小的打擊。但小鵬也沒有做錯什麼,要成功就需要高端技術研發人員。

寫在最後:

特斯拉與小鵬的戰爭如火如荼,兩者互懟對小鵬也有一定的傳播性,但Model3的降價給小鵬也帶來不小壓力,在智能方面小鵬要超過特斯拉也未必容易。從兩者年度研發費用特斯拉是小鵬的好幾倍,兩者發展起步時間前後也有不小差距,所以小鵬要彎道超特斯拉必定要比特斯拉付出更多。

本文來源於汽車之家車家號作者,不代表汽車之家的觀點立場。

④ 有類似汽車之家的源碼么

有的呀,我的那是我客戶在用的 商業源碼,你要的話可以便宜給你的

⑤ 如何抓取汽車之家的車型庫 Python中文社區

實際上,關於「如何抓取汽車之家的車型庫」,我已經在「使用 Mitmproxy 分析介面」一文中給出了方法,不過那篇文章里講的是利用 API 介面來抓取數據,一般來說,因為介面不會頻繁改動,相對 WEB 頁面而言更穩定,所以通常這是數據抓取的最佳選擇,不過利用 API 介面來抓取數據有一些缺點,比如有的數據沒有 API 介面,亦可能雖然有 API 介面,但是數據使用了加密格式,此時只能通過 WEB 頁面來抓取數據。

既然要通過 WEB 頁面來抓取數據,那麼就不得不提到Scrapy,它可以說是爬蟲之王,我曾經聽說有人用 Scrapy,以有限的硬體資源在幾天的時間里把淘寶商品數據從頭到尾擼了一遍,如此看來,本文用 Scrapy 來抓取汽車之家的車型庫應該是綽綽有餘的了。
在抓取汽車之家的車型庫之前,我們應該對其結構有一個大致的了解,按照網路中的描述,其大致分為四個級別,分別是品牌、廠商、車系、車型。本文主要關注車系和車型兩個級別的數據。在抓取前我們要確定從哪個頁面開始抓取,比較好的選擇有兩個,分別是產品庫和品牌找車,選擇哪個都可以,本文選擇的是品牌找車,不過因為品牌找車頁面使用了 js 來按字母來載入數據,所以直接使用它的話可能會有點不必要的麻煩,好在我們可以直接使用從A到Z的字母頁面。
假設你已經有了 Scrapy 的運行環境(註:本文代碼以 Python3 版本為准):
shell> scrapy startproject autohome
shell> cd autohome
shell> scrapy genspider automobile www.autohome.com.cn -t crawl

如此就生成了一個基本的蜘蛛骨架,需要說明的是 Scrapy 有兩種蜘蛛,分別是 spider 和 crawl,其中 spider 主要用於簡單的抓取,而 crawl 則可以用來實現復雜的抓取,復雜在哪裡呢?主要是指蜘蛛可以根據規則萃取需要的鏈接,並且可以逐級自動抓取。就抓取汽車之家的車型庫這個任務而言,使用 spider 就可以實現,不過鑒於 crawl 在功能上更強大,本文選擇 crawl 來實現,其工作流程大致如下:通過 start_urls 設置起始頁,通過 rules 設置處理哪些鏈接,一旦遇到匹配的鏈接地址,那麼就會觸發對應的 callback,在 callback 中可以使用 xpath/css 選擇器來選擇數據,並且通過 item loader 來載入 item:

車系

車型
文件:autohome/items.py:
# -*- coding: utf-8 -*-

import scrapy
from scrapy.loader.processors import MapCompose, TakeFirst

class SeriesItem(scrapy.Item):
series_id = scrapy.Field(
input_processor=MapCompose(lambda v: v.strip("/")),
output_processor=TakeFirst()
)
series_name = scrapy.Field(output_processor=TakeFirst())

class ModelItem(scrapy.Item):
model_id = scrapy.Field(
input_processor=MapCompose(lambda v: v[6:v.find("#")-1]),
output_processor=TakeFirst()
)
model_name = scrapy.Field(output_processor=TakeFirst())
series_id = scrapy.Field(output_processor=TakeFirst())

文件:autohome/autohome/spiders/automobile.py:
# -*- coding: utf-8 -*-

import json
import string
from scrapy import Request
from scrapy.http import HtmlResponse
from scrapy.linkextractors import LinkExtractor
from scrapy.loader import ItemLoader
from scrapy.spiders import CrawlSpider, Rule
from urllib.parse import parse_qs, urlencode, urlparse
from autohome.items import ModelItem, SeriesItem

class AutomobileSpider(CrawlSpider):
name = "automobile"
allowed_domains = ["www.autohome.com.cn"]

start_urls = [
"" + x + ".html"
for x in string.ascii_uppercase if x not in "EIUV"
]

rules = (
Rule(LinkExtractor(allow=("/\d+/#",)), callback="parse_item"),
)

def parse(self,response):
params = {
"url": response.url,
"status": response.status,
"headers": response.headers,
"body": response.body,
}

response = HtmlResponse(**params)

return super().parse(response)

def parse_item(self, response):
sel = response.css("div.path")

loader = ItemLoader(item=SeriesItem(), selector=sel)
loader.add_css("series_id", "a:last-child::attr(href)")
loader.add_css("series_name", "a:last-child::text")

series = loader.load_item()

# 即將銷售 & 在售
for sel in response.css("div.interval01-list-cars-infor"):
loader = ItemLoader(item=ModelItem(), selector=sel)
loader.add_css("model_id", "a::attr(href)")
loader.add_css("model_name", "a::text")
loader.add_value("series_id", series['series_id'])

yield loader.load_item()

# 停售
url = ""

years = response.css(".dropdown-content a::attr(data)")

for year in years.extract():
qs = {
"y": year,
"s": series["series_id"]
}

yield Request(url + "?" + urlencode(qs), self.stop_sale)

def stop_sale(self, response):
data = parse_qs(urlparse(response.url).query)

body = json.loads(response.body_as_unicode())

for spec in body["Spec"]:
yield {
"model_id": str(spec["Id"]),
"model_name": str(spec["Name"]),
"series_id": str(data["s"][0]),
}

把如上兩段源代碼拷貝到對應的文件里,下面我們就可以讓蜘蛛爬起來了:
shell> scrapy crawl automobile -o autohome.csv

抓取的結果會保存到 autohome.csv 里。如果保存到 json 文件中,那麼有時候你可能會發現輸出的都是 unicode 編碼,此時可以設置FEED_EXPORT_ENCODING來解決,如果想保存到資料庫中,那麼可以使用 Scrapy 的pipeline來實現。
如果你完整讀過 Scrapy 的文檔,那麼可能會記得在spiders一章中有如下描述:
When writing crawl spider rules, avoid using parse as callback, since the CrawlSpider uses the parse method itself to implement its logic. So if you override the parse method, the crawl spider will no longer work.
意思是說,在使用 crawl 的時候,應該避免覆蓋 parse 方法,不過本文的源代碼中恰恰重寫了 parse 方法,究其原因是因為汽車之家的字母頁存在不規范的地方:
shell> curl -I h

HTTP/1.1 200 OK
Date: ...
Server: ...
Content-Type: text/html, text/html; charset=gb2312
Content-Length: ...
Last-Modified: ...
Accept-Ranges: ...
X-IP: ...
Powerd-By-Scs: ...
X-Cache: ...
X-Via: ...
Connection: ...

乍看上去好像沒什麼問題,不過仔細一看就會發現在 Content-Type 中 text/html 存在重復,此問題導致 Scrapy 在判斷頁面是否是 html 頁面時失敗。為了修正此問題,我重寫了 parse 方法,把原本是 TextResponse 的對象重新包裝為 HtmlResponse 對象。通過抓取竟然還幫助汽車之家找到一個 BUG,他們真是應該謝謝我才對。
有時候,為了避免蜘蛛被對方屏蔽,我們需要偽裝 User-Agent,甚至通過一些代理服務來偽裝自己的 IP,本文篇幅所限,就不多說了,實際上,Scrapy 不僅僅是一個庫,更是一個平台,本文涉及的內容只能算是管中窺豹,有興趣的讀者不妨多看看官方文檔,此外,網上也有很多例子可供參考。
0 0

⑥ 小鵬「杠」上特斯拉

有意思的是,蔚來汽車CEO李斌在小鵬P7發布會的祝福視頻中特別提到:「如果要買SUV可以選蔚來或合創,但如果買轎車,那一定要選P7。」

而在發布會後,何小鵬在微博上轉發了一篇名為《小鵬汽車的決戰時刻》的文章,同時寫道「不是終點,只是新的起點」。

目前來看,雖然雙方自動駕駛的訴訟糾紛結果還需等待,但小鵬汽車杠上特斯拉已是事實。希望包括小鵬汽車在內的國內造車新勢力們在與特斯拉的競爭中不斷進步,帶給消費者更多的驚喜。

本文來源於汽車之家車家號作者,不代表汽車之家的觀點立場。

⑦ 品質趕不上傳統車企,拒絕激光雷達技術,特斯拉靠「懟」就能贏

據國外媒體報道,《消費者報告》最近發布了年度可靠性調查報告,備受關注的特斯拉卻在所有26個上榜品牌中排名倒數第二。其中,一經推出即成為熱門車型的ModelY被曝光存在多項質量問題。

可以推測,激光雷達技術的使用,或將讓包括小鵬在內的中國造車新勢力在自動駕駛技術上超越特斯拉。甚至不排除由此打開的,是"傳統汽車製造商在EV技術上超越特斯拉"的大門。

只是,通過目前特斯拉車主對ModelY車輛品質的吐槽,看到的卻是"特斯拉在生產質量和可靠性方面仍然需要追趕傳統汽車製造商"的不足。

那麼,馬斯克和何小鵬的"隔空互懟"誰將成為真正的贏家?似乎早就註定好了結局。

(圖片來自於網路,侵權請聯系刪除)

本文來源於汽車之家車家號作者,不代表汽車之家的觀點立場。

⑧ 特斯拉起訴小鵬汽車新進展 小鵬將提供代碼供第三方調查

財經網汽車訊?關於特斯拉起訴小鵬汽車員工曹廣植「商業竊密」一案有了新的進展。
6月4日,有媒體報道,針對小鵬汽車的反對動議,美國北加州(United State District Court Northern District of California)法院認為:小鵬需提交自動駕駛源代碼,但是雙方要會面商議再決定是否交由中立第三方調查。整體而言,法院對雙方的訴求予以部分支持、部分駁回。
對此小鵬汽車對財經網汽車表示,「對於目前的結果,小鵬的立場始終是同意向中立第三方提供源代碼以供調查。(法院指令)符合預期,我們對此次結果表示滿意。」
公開資料顯示,曹光植2017年4月24日正式入職特斯拉,工作期間主要擔任「計算機視覺科學家」的職務。
2018年12月期間,曹光植返回國內,前往小鵬汽車總部面試並收到書面錄用通知。
2019年1月4日,曹入職小鵬汽車,成為「感知團隊負責人」,主要負責「開發和交付用於生產汽車的自動駕駛技術」。
2019年3月21日曹光植被特斯拉起訴。
小鵬和特斯拉最近一次爭議的焦點,是雙方對於小鵬提交調查資料的范圍沒談攏。
小鵬汽車認為,從曹光植入職之日起,到特斯拉提出訴訟之日,也就是2019年1月4日到3月21日,這段曹光植的工作日誌可以公開接受檢查。
而特斯拉要求小鵬汽車?提供從2018年11月1日起為其自動駕駛汽車技術起草、測試或使用的"所有源代碼"(即曹加入小鵬汽車、甚至開始與小鵬汽車面談之前),包括所有修訂、修復和更新。
當時小鵬汽車表示:「特斯拉沒有任何基礎直接審查小鵬汽車源代碼。小鵬汽車的源代碼高度保密,對小鵬汽車的業務至關重要。它是小鵬汽車自動駕駛車輛運營的核心, 大量資源已用於創建該源代碼,平均有70名工程師在兩年多的時間里就這些代碼進行了大量工作,至少花費了數千萬美元來創建、維護和改進。 它對小鵬汽車的價值是不可估量的。小鵬汽車始終將其視為高度機密,並且僅僅向必須使用它的員工提供。 這根本不是公司會與任何第三方分享的東西,更不會向競爭對手提供。」
本文來源於汽車之家車家號作者,不代表汽車之家的觀點立場。

⑨ 軟體能否定義汽車

到了人類現實世界,影響因素復雜了很多。AI訓練需要更強的算力兜底,但散熱條件、車載能源的有限供應成為瓶頸。而且,超過1000Tops的算力,仍然很貴、很重、很費電。換句話說,近期而言,我們沒有低成本解決辦法;而當前,壓根沒有解決方案,無論成本如何。

軟體定義汽車,就是打破汽車作為信息孤島的存在。和現在硬體為主、軟體是花瓶的時代,好比互聯網時代與單個PC之比。互聯網理論誕生40年之後,公眾才享受到它的紅利,其基礎恰是晶元硬體以摩爾定律進化到低成本互聯的時期。

軟體的基礎一直是硬體,到了汽車上,我們也不應改變看法。至於要多久,要看軟體要求的硬體基礎,何時能以合理成本提供。(文/《汽車人》黃耀鵬,部分圖片來源網路)【版權聲明】本文系《汽車人》獨家原創稿件,版權為《汽車人》所有。

本文來源於汽車之家車家號作者,不代表汽車之家的觀點立場。

閱讀全文

與汽車之家網站源碼相關的資料

熱點內容
南京解壓車要帶什麼 瀏覽:562
天堂2編譯視頻教程 瀏覽:392
伺服器沒有進程怎麼辦 瀏覽:784
阿里雲發布新物種神龍雲伺服器 瀏覽:59
數據結構遞歸演算法統計二叉樹節點 瀏覽:666
ev3怎麼編程 瀏覽:702
gzip壓縮教程 瀏覽:349
解壓模擬例子 瀏覽:984
流媒體伺服器如何實現視頻轉發 瀏覽:57
linux字元串md5 瀏覽:302
支撐突破選股源碼怎麼設置 瀏覽:934
湖南戴爾伺服器維修雲主機 瀏覽:494
解壓到文件夾的視頻都自動隱藏了 瀏覽:569
閱讀器支持php 瀏覽:222
人生需求怎麼解壓 瀏覽:795
pdf列印機找不到 瀏覽:1001
如何同時使用兩個apache伺服器 瀏覽:723
國外php論壇 瀏覽:966
災難是命令 瀏覽:604
linux火狐瀏覽器安裝 瀏覽:71